394 resultados para 004.072 Elaborazione dei dati, Scienza degli elaboratori, Informatica - Attività di ricerca
Resumo:
Una breve introduzione sulla storia del mosaico: dalle origine alle sue evoluzione tipologiche e tecnologiche nel tempo, di come si organizzavano le antiche botteghe del mosaico e le suddivisione dei compiti tra il pictor imaginarius, pictor parietarius e il musivarius (la gerarchia) all’interno di essi; la tecniche esecutiva per la messa in opera dei mosaici pavimentali romani. Visto che i mosaici si trovano a Suasa, quindi è stata riassunta la storia della città romana di Suasa con le sua varie fase edilizie, con maggior approfondimenti per gli edifici che presentano pavimentazione a mosaico: in primo luogo è la domus dei Coiedii contenente più di diciotto pavimenti in opus tessellatum. Il secondo è quello del così detto Edificio 4 (ancora inedito e di incerta natura e destinazione) portato in luce solo parzialmente con due settore a mosaico. Successivamente è stato effettuato in maniera dettagliata lo studio dello stato di conservazione dei vani musivi che sono state oggetto in senso stretto dei varie interventi conservativi, sia nella domus dei Coiedii (vano AU, oecus G e vano BB) che in Edificio 4 (vano A e vano D), evidenziando così le diverse morfologie di degrado in base “Normativa UNI 11176/2006 con l’aiuto della documentazione grafica ed fotografica. Un ampio e complessivo studio archeometrico-tecnologico dei materiali impiegati per la realizzazione dei musaici a Suasa (tessere e malte) presso i laboratori del CNR di Faenza.. Sono stati prelevati complessivamente 90 campione da tredici vani musivi di Suasa, di cui 28 campione di malte, comprese tra allettamento e di sottofondo,42 tessere lapidee e 20 tessere vitree; questi ultimi appartengono a sette vani della domus. Durante l’operazione del prelevo, è stato presso in considerazione le varie tipologie dei materiali musivi, la cromia ed le morfologie di degrado che erano presente. Tale studio ha lo scopo di individuare la composizione chimico-mineropetrografico, le caratteristiche tessiturali dei materiali e fornire precisa informazione sia per fine archeometrici in senso stretto (tecnologie di produzione, provenienza, datazione ecc.), che come supporto ai interventi di conservazione e restauro. Infine si è potuto costruire una vasta banca dati analitici per i materiali musivi di Suasa, che può essere consultata, aggiornata e confrontata in futuro con altri materiali proveniente dalla stessa province e/o regione. Applicazione dei interventi conservativi: di manutenzione, pronto intervento e di restauro eseguiti sui vani mosaicati di Suasa che presentavano un pessimo stato di conservazione e necessitavano l’intervento conservativo, con la documentazione grafica e fotografica dei varie fase dell’intervento. In particolare lo studio dei pregiatissimi materiali marmorei impiegati per la realizzazione dell’opus sectile centrale (sala G) nella domus dei Coiedii, ha portato alla classificazione e alla schedatura di sedici tipi di marmi impiegati; studio esteso poi al tessellato che lo circonda: studio del andamento, tipologie dei materiali, dei colore, dimensione delle tessere, interstizio ecc., ha permesso con l’utilizzo delle tavole tematiche di ottenere una chiara lettura per l’intero tessellato, di evidenziare così, tutti gli interventi antiche e moderni di risarciture, eseguiti dal II sec. d.C. fio ad oggi. L’aspetto didattico (teorico e pratico) ha accompagnato tutto il lavoro di ricerca Il lavoro si qualifica in conclusione come un esempio assai significativo di ricerca storicoiconografiche e archeometriche, con risultati rilevanti sulle tecnologie antiche e sui criteri di conservazione più idonei.
Resumo:
La dissertazione, partendo dall’analisi dei dati particolari, dei quali approfondisce il concetto e le norme previste per la disciplina del trattamento, arriva ad una completa ed approfondita analisi dei dati genetici, partendo dal loro inquadramento storico e giungendo sino ad evidenziare la simmetria intercorrente tra gli stessi e il tessuto umano (il campione biologico) che, sotto un profilo squisitamente giuridico, è stato sottoposto al medesimo regime di tutela previsto per il dato genetico. La finalità della definizione dei dati genetici è quella di individuare la loro regolamentazione nell’ambito dell’ordinamento interno nonché ad evidenziare la genesi di tale normazione e, soprattutto, la tecnica utilizzata dall’autorità preposta, che ha inteso recepire (anche se il termine, per taluni atti, è improprio) nell’ambito dell’ordinamento italiano una moltitudine di atti normativi di rango internazione e sovranazionale, succedutisi sin dagli anni immediatamente successivi la fine del secondo conflitto mondiale. Mentre la prima parte della dissertazione commenta la normativa in materia di dati particolari, la seconda parte costituisce un corpo unico finalizzato a rappresentare la doppia faccia dei dati genetici, costituita, da un lato, dalla pericolosità -per i diritti della persona- del loro trattamento e, dall’altro, dalla indispensabilità del trattamento stesso per la tutela della salute dell’uomo, come singolo e come soggetto collettivo. Il lavoro pertanto si inserisce in un contesto in cui la regolamentazione nazionale dei dati genetici pare prima di tutto finalizzata anche alla codificazione di alcune libertà fondamentali fino al 2006 di creazione squisitamente e quasi esclusivamente dottrinale, al più con qualche accenno giurisprudenziale (v. sul punto il diritto di non sapere o, anche se si ritiene che lo stesso sia di fatto stato regolamentato dal Codice in materia di protezione dei dati personali, il diritto all’autodeterminazione informativa) dei quali la tesi in commento individua la chiave regolatrice nell’ambito delle norme contenute nell’Autorizzazione del Garante. L’esame della normativa nazionale, costituita appunto dall’Autorizzazione emanata dal Garante ai sensi dell’art. 90 del Codice è pertanto svolto mediante un commento e, in alcuni punti, una critica costruttiva finalizzata ad evidenziare l’estrema difficoltà nella normazione di un trattamento che, da un lato, rischia di aggredire irrimediabilmente i diritti della persona e dall’altro è indispensabile per la tutela degli stessi.
Resumo:
Introduzione L’importanza clinica, sociale ed economica del trattamento dell’ipertensione arteriosa richiede la messa in opera di strumenti di monitoraggio dell’uso dei farmaci antiipertensivi che consentano di verificare la trasferibilità alla pratica clinica dei dati ottenuti nelle sperimentazioni. L’attuazione di una adatta strategia terapeutica non è un fenomeno semplice da realizzare perché le condizioni in cui opera il Medico di Medicina Generale sono profondamente differenti da quelle che si predispongono nell’esecuzione degli studi randomizzati e controllati. Emerge, pertanto, la necessità di conoscere le modalità con cui le evidenze scientifiche trovano reale applicazione nella pratica clinica routinaria, identificando quei fattori di disturbo che, nei contesti reali, limitano l’efficacia e l’appropriatezza clinica. Nell’ambito della terapia farmacologica antiipertensiva, uno di questi fattori di disturbo è costituito dalla ridotta aderenza al trattamento. Su questo tema, recenti studi osservazionali hanno individuato le caratteristiche del paziente associate a bassi livelli di compliance; altri hanno focalizzato l’attenzione sulle caratteristiche del medico e sulla sua capacità di comunicare ai propri assistiti l’importanza del trattamento farmacologico. Dalle attuali evidenze scientifiche, tuttavia, non emerge con chiarezza il peso relativo dei due diversi attori, paziente e medico, nel determinare i livelli di compliance nel trattamento delle patologie croniche. Obiettivi Gli obiettivi principali di questo lavoro sono: 1) valutare quanta parte della variabilità totale è attribuibile al livello-paziente e quanta parte della variabilità è attribuibile al livello-medico; 2) spiegare la variabilità totale in funzione delle caratteristiche del paziente e in funzione delle caratteristiche del medico. Materiale e metodi Un gruppo di Medici di Medicina Generale che dipendono dall’Azienda Unità Sanitaria Locale di Ravenna si è volontariamente proposto di partecipare allo studio. Sono stati arruolati tutti i pazienti che presentavano almeno una misurazione di pressione arteriosa nel periodo compreso fra il 01/01/1997 e il 31/12/2002. A partire dalla prima prescrizione di farmaci antiipertensivi successiva o coincidente alla data di arruolamento, gli assistiti sono stati osservati per 365 giorni al fine di misurare la persistenza in trattamento. La durata del trattamento antiipertensivo è stata calcolata come segue: giorni intercorsi tra la prima e l’ultima prescrizione + proiezione, stimata sulla base delle Dosi Definite Giornaliere, dell’ultima prescrizione. Sono stati definiti persistenti i soggetti che presentavano una durata del trattamento maggiore di 273 giorni. Analisi statistica I dati utilizzati per questo lavoro presentano una struttura gerarchica nella quale i pazienti risultano “annidati” all’interno dei propri Medici di Medicina Generale. In questo contesto, le osservazioni individuali non sono del tutto indipendenti poiché i pazienti iscritti allo stesso Medico di Medicina Generale tenderanno ad essere tra loro simili a causa della “storia comune” che condividono. I test statistici tradizionali sono fortemente basati sull’assunto di indipendenza tra le osservazioni. Se questa ipotesi risulta violata, le stime degli errori standard prodotte dai test statistici convenzionali sono troppo piccole e, di conseguenza, i risultati che si ottengono appaiono “impropriamente” significativi. Al fine di gestire la non indipendenza delle osservazioni, valutare simultaneamente variabili che “provengono” da diversi livelli della gerarchia e al fine di stimare le componenti della varianza per i due livelli del sistema, la persistenza in trattamento antiipertensivo è stata analizzata attraverso modelli lineari generalizzati multilivello e attraverso modelli per l’analisi della sopravvivenza con effetti casuali (shared frailties model). Discussione dei risultati I risultati di questo studio mostrano che il 19% dei trattati con antiipertensivi ha interrotto la terapia farmacologica durante i 365 giorni di follow-up. Nei nuovi trattati, la percentuale di interruzione terapeutica ammontava al 28%. Le caratteristiche-paziente individuate dall’analisi multilivello indicano come la probabilità di interrompere il trattamento sia più elevata nei soggetti che presentano una situazione clinica generale migliore (giovane età, assenza di trattamenti concomitanti, bassi livelli di pressione arteriosa diastolica). Questi soggetti, oltre a non essere abituati ad assumere altre terapie croniche, percepiscono in minor misura i potenziali benefici del trattamento antiipertensivo e tenderanno a interrompere la terapia farmacologica alla comparsa dei primi effetti collaterali. Il modello ha inoltre evidenziato come i nuovi trattati presentino una più elevata probabilità di interruzione terapeutica, verosimilmente spiegata dalla difficoltà di abituarsi all’assunzione cronica del farmaco in una fase di assestamento della terapia in cui i principi attivi di prima scelta potrebbero non adattarsi pienamente, in termini di tollerabilità, alle caratteristiche del paziente. Anche la classe di farmaco di prima scelta riveste un ruolo essenziale nella determinazione dei livelli di compliance. Il fenomeno è probabilmente legato ai diversi profili di tollerabilità delle numerose alternative terapeutiche. L’appropriato riconoscimento dei predittori-paziente di discontinuità (risk profiling) e la loro valutazione globale nella pratica clinica quotidiana potrebbe contribuire a migliorare il rapporto medico-paziente e incrementare i livelli di compliance al trattamento. L’analisi delle componenti della varianza ha evidenziato come il 18% della variabilità nella persistenza in trattamento antiipertensivo sia attribuibile al livello Medico di Medicina Generale. Controllando per le differenze demografiche e cliniche tra gli assistiti dei diversi medici, la quota di variabilità attribuibile al livello medico risultava pari al 13%. La capacità empatica dei prescrittori nel comunicare ai propri pazienti l’importanza della terapia farmacologica riveste un ruolo importante nel determinare i livelli di compliance al trattamento. La crescente presenza, nella formazione dei medici, di corsi di carattere psicologico finalizzati a migliorare il rapporto medico-paziente potrebbe, inoltre, spiegare la relazione inversa, particolarmente evidente nella sottoanalisi effettuata sui nuovi trattati, tra età del medico e persistenza in trattamento. La proporzione non trascurabile di variabilità spiegata dalla struttura in gruppi degli assistiti evidenzia l’opportunità e la necessità di investire nella formazione dei Medici di Medicina Generale con l’obiettivo di sensibilizzare ed “educare” i medici alla motivazione ma anche al monitoraggio dei soggetti trattati, alla sistematica valutazione in pratica clinica dei predittori-paziente di discontinuità e a un appropriato utilizzo della classe di farmaco di prima scelta. Limiti dello studio Uno dei possibili limiti di questo studio risiede nella ridotta rappresentatività del campione di medici (la partecipazione al progetto era su base volontaria) e di pazienti (la presenza di almeno una misurazione di pressione arteriosa, dettata dai criteri di arruolamento, potrebbe aver distorto il campione analizzato, selezionando i pazienti che si recano dal proprio medico con maggior frequenza). Questo potrebbe spiegare la minore incidenza di interruzioni terapeutiche rispetto a studi condotti, nella stessa area geografica, mediante database amministrativi di popolazione. Conclusioni L’analisi dei dati contenuti nei database della medicina generale ha consentito di valutare l’impiego dei farmaci antiipertensivi nella pratica clinica e di stabilire la necessità di porre una maggiore attenzione nella pianificazione e nell’ottenimento dell’obiettivo che il trattamento si prefigge. Alla luce dei risultati emersi da questa valutazione, sarebbe di grande utilità la conduzione di ulteriori studi osservazionali volti a sostenere il progressivo miglioramento della gestione e del trattamento dei pazienti a rischio cardiovascolare nell’ambito della medicina generale.
Resumo:
Il tema di ricerca sul Segretariato Generale della Presidenza del Consiglio dei Ministri si colloca su di un terreno che potremmo definire, genericamente, giuspubblicistico, posto al confine tra il diritto costituzionale ed il diritto amministrativo. Tale visione sistematica trae fondamento alla apparente vocazione del Segretariato, di soggetto istituzionale dalla doppia attitudine: da un lato, infatti, è preposto alla traduzione - in termini strettamente operativi - dell’indirizzo politico governativo e dall’altro svolge un’attività di monitoraggio e di raccolta di informazioni generali necessarie per il migliore svolgimento dell’azione governativa. Pertanto, per l’inquadramento e l’analisi delle differenti problematiche che avvolgono l’istituto sono state recuperate, per i profili d’interesse, diverse categorie giuridiche, alcune di stampo marcatamente costituzionalistico (a titolo esemplificativo, la funzione, l’indirizzo politico, il rapporto di fiducia, la posizione costituzionale del Presidente del Consiglio, dei Ministri e del Consiglio dei Ministri, categorie cui è stata aggiunta, per alcuni aspetti, la disciplina elettorale e, in particolare, la stessa formula elettorale, suscettibile di apportare una spiccata “mobilità decisionale” tra i diversi organi di cui si compone il Governo), accostate ad altre di specifico interesse amministrativistico (il coordinamento, l’atto politico, l’atto di alta amministrazione, la direzione, le strutture in cui si dipana l’organizzazione, l’azione amministrativa, la gestione finanziaria). Lo sviluppo del tema è proposto, in via preliminare, facendo riferimento all’inquadramento generale dell’istituto, attraverso l’esame della genesi e dello sviluppo della struttura burocratica oggetto dello studio, tenendo conto della versatilità operativa, sia sul versante strutturale, sia funzionale, dimostrata nel corso degli decenni di storia costituzionale del Paese, spesso costellata da avvenimenti politici e sociali controversi e, a volte, non privi di accadimenti drammatici. La dottrina non ha dedicato specifici studi ma si è occupata dell’argomento in via incidentale, nell’ambito di trattazioni di più ampio respiro dedicate alla funzione di governo nelle sue varie “declinazioni”, legando “a doppio filo” il Segretariato Generale della Presidenza del Consiglio al Presidente del Consiglio soprattutto nella misura in cui afferma che il Segretariato è struttura meramente servente del premier di cui sembrerebbe condividerne le sorti specie con riferimento alla conformazione strutturale e funzionale direttamente collegata alla maggiore o minore espansione dei suoi poteri (reali) di coordinamento e di direzione della compagine governativa, ponendo in secondo piano le funzioni “di continuità” istituzionale e di servizio al cittadino che pure sono assolte dall’organo. Ciò premesso, si è tentato di fornire una visione generale del Segretariato nella sua dimensione ordinamentale ed operativa, attraverso la ricognizione, scomposizione e ricomposizione delle sue numerose attribuzioni per saggiare il suo reale natura giuridica. In conclusione, anche a fronte della posizione netta della giurisprudenza, si è optato per ritenere che il Segretariato generale della Presidenza del Consiglio dei ministri sia attratto tra gli organi amministrativi.
Resumo:
Gli investimenti diretti esteri (IDE) giocano un ruolo importante nella crescita economica e nello sviluppo territoriale. Con il notevole aumento dei flussi IDE nel settore agroalimentare a livello mondiale l’attenzione si è concentrata sul dibattito relativo alle determinanti che spingono alla scelta di un territorio piuttosto che un altro. Non esiste ancora un lavoro definitivo ed univoco sulle determinanti degli IDE. Alcune delle più frequenti analisi sui fattori che influenzano gli IDE includono: l’entità del mercato, il costo del lavoro, i tassi di interesse, le barriere protezionistiche, tassi di cambio, predisposizione all’export, struttura del mercato, distanze geografiche, stabilità politica e affinità culturale. Questo lavoro si propone di analizzare le determinanti nel settore agroalimentare italiano sia teoricamente che empiricamente. A questo scopo è stata applica come base teorica il paradigma OLI di Dunning e i principi legati agli investimenti orizzontali al settore agroalimentare regionale italiano. Sono state esaminate le determinanti degli investimenti diretti inward in questo settore. Le risultanti suggeriscono una relazione positiva tra la presenza di attività di servizi e la presenza di IDE nelle diverse Regioni. In un Paese ad economia avanzata come l’Italia, strategie territoriali e di impresa basate sui costi e sul mercato non sono caratterizzanti per attrarre multinazionali straniere, mentre la dotazione di servizi e infrastrutture rappresentano un nuovo obiettivo su cui le Regioni devono puntare per aprire i territori alle sfide della globalizzazione. Questa ricerca unisce analisi statistica ed econometria e studio bibliografico per approfondire e comprendere la materia in oggetto e fornire nuovi elementi e spunti su cui discutere.
Resumo:
L’infezione da virus dell’ epatite E (HEV) nei suini e nell’uomo è stata segnalata in diversi Paesi. Nei suini, il virus causa infezioni asintomatiche, mentre nell’uomo è responsabile di epidemie di epatite ad andamento acuto nei Paesi a clima tropicale o subtropicale con condizioni igieniche scadenti, di casi sporadici in quelli sviluppati. HEV è stato isolato anche in diversi animali e l’analisi nucleotidica degli isolati virali di origine animale ha mostrato un elevato grado di omologia con i ceppi di HEV umani isolati nelle stesse aree geografiche, avvalorando l’ipotesi che l'infezione da HEV sia una zoonosi. In America del Sud HEV suino è stato isolato per la prima volta in suini argentini nel 2006, mentre solo dal 1998 esistono dati sull’ infezione da HEV nell’uomo in Bolivia. In questa indagine è stato eseguito uno studio di sieroprevalenza in due comunità rurali boliviane e i risultati sono stati confrontati con quelli dello studio di sieroprevalenza sopra menzionato condotto in altre zone rurali della Bolivia. Inoltre, mediante Nested RT-PCR, è stata verificata la presenza di HEV nella popolazione umana e suina. La sieroprevalenza per anticorpi IgG anti-HEV è risultata pari al 6,2%, molto simile a quella evidenziata nello studio precedente. La prevalenza maggiore (24%) si è osservata nei soggetti di età compresa tra 41 e 50 anni, confermando che l’ infezione da HEV è maggiore fra i giovani-adulti. La ricerca di anticorpi anti HEV di classe IgM eseguita su 52 sieri ha fornito 4 risultati positivi. Il genoma virale è stato identificato in uno dei 22 pool di feci umane e l'esame virologico di 30 campioni individuali fecali e 7 individuali di siero ha fornito rispettivamente risultati positivi in 4/30 e 1/7. La Nested RT-PCR eseguita sui 22 pool di feci suine ha dato esito positivo in 7 pool. L’analisi delle sequenze genomiche di tutti gli amplificati ha consentito di stabilire che gli isolati umani appartenevano allo stesso genotipo III di quelli suini e presentavano con questi una elevata omologia aminoacidica (92%).
Resumo:
Questa tesi di dottorato ha per suo oggetto la ricognizione degli elementi teorici, di linguaggio politico e di influenza concettuale che le scienze sociali tra Ottocento e Novecento hanno avuto nell’opera di Antonio Gramsci. La ricerca si articola in cinque capitoli, ciascuno dei quali intende ricostruire, da una parte, la ricezione gramsciana dei testi classici della sociologia e della scienza politica del suo tempo, dall’altra, far emergere quelle filiazioni concettuali che permettano di valutare la portata dell’influenza delle scienze sociali sugli scritti gramsciani. Il lungo processo di sedimentazione concettuale del lessico delle scienze sociali inizia in Gramsci già negli anni della formazione politica, sullo sfondo di una Torino positivista che esprime le punte più avanzate del “progetto grande borghese” per lo studio scientifico della società e per la sua “organizzazione disciplinata”; di questa tradizione culturale Gramsci incrocia a più riprese il percorso. La sua formazione più propriamente politica si svolge però all’interno del Partito socialista, ancora imbevuto del lessico positivista ed evoluzionista. Questi due grandi filoni culturali costituiscono il brodo di coltura, rifiutato politicamente ma al tempo stesso assunto concettualmente, per quelle suggestioni sociologiche che Gramsci metterà a frutto in modo più organico nei Quaderni. La ricerca e la fissazione di una specifica antropologia politica implicita al discorso gramsciano è il secondo stadio della ricerca, nella direzione di un’articolazione complessiva delle suggestioni sociologiche che i Quaderni assumono come elementi di analisi politica. L’analisi si sposta sulla storia intellettuale della Francia della Terza Repubblica, più precisamente sulla nascita del paradigma sociologico durkheimiano come espressione diretta delle necessità di integrazione sociale. Vengono così messe in risalto alcune assonanze lessicali e concettuali tra il discorso di Durkheim, di Sorel e quello di Gramsci. Con il terzo capitolo si entra più in profondità nella struttura concettuale che caratterizza il laboratorio dei Quaderni. Si ricostruisce la genesi di concetti come «blocco storico», «ideologia» ed «egemonia» per farne risaltare quelle componenti che rimandano direttamente alle funzioni di integrazione di un sistema sociale. La declinazione gramsciana di questo problema prende le forme di un discorso sull’«organicità» che rende più che mai esplicito il suo debito teorico nei confronti dell’orizzonte concettuale delle scienze sociali. Il nucleo di problemi connessi a questa trattazione fa anche emergere l’assunzione di un vero e proprio lessico sociologico, come per i concetti di «conformismo» e «coercizione», comunque molto distante dallo spazio semantico proprio del marxismo contemporaneo a Gramsci. Nel quarto capitolo si affronta un caso paradigmatico per quanto riguarda l’assunzione non solo del lessico e dei concetti delle scienze sociali, ma anche dei temi e delle modalità della ricerca sociale. Il quaderno 22 intitolato Americanismo e fordismo è il termine di paragone rispetto alla realtà che Gramsci si prefigge di indagare. Le consonanze delle analisi gramsciane con quelle weberiane dei saggi su Selezione e adattamento forniscono poi gli spunti necessari per valutare le novità emerse negli Stati Uniti con la razionalizzazione produttiva taylorista, specialmente in quella sua parte che riguarda la pervasività delle tecniche di controllo della vita extra-lavorativa degli operai. L’ultimo capitolo affronta direttamente la questione delle aporie che la ricezione della teoria sociologica di Weber e la scienza politica italiana rappresentata dagli elitisti Mosca, Pareto e Michels, sollevano per la riformulazione dei concetti politici gramsciani. L’orizzonte problematico in cui si inserisce questa ricerca è l’individuazione di una possibile “sociologia del politico” gramsciana che metta a tema quel rapporto, che è sempre stato di difficile composizione, tra marxismo e scienze sociali.
Resumo:
La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.
Resumo:
L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.
Valutazione in opera ed in laboratorio della trasmissione laterale nelle tipologie edilizie italiane
Resumo:
L’attività di ricerca del dottorando è stata rivolta allo studio della trasmissione del rumore per via strutturale negli edifici. Questo argomento e' di notevole interesse sia fondamentale che applicativo. Il fenomeno e le problematiche ad essa connesse contribuiscono alla diminuzione delle prestazioni fonoisolanti, sia per le strutture verticali (usualmente valutate rispetto al rumore aereo), sia per quelle orizzontali (valutate anche rispetto al rumore impattivo) ed è tipico degli edifici con struttura portante a telaio e tamponatura in laterizi. Si tratta delle tipiche tipologie edilizie italiane, per le quali il problema risulta amplificato rispetto ad altre tipologie. La metodologia di studio è stata di tipo sperimentale. La scelta è dettata sia dall’insufficiente avanzamento dello stato dell’arte dei metodi di calcolo teorici, o delle loro versioni numeriche, sia dalla necessità di disporre di dati certi da confrontare con i valori forniti dai metodi previsionali semplificati indicati nelle norme UNI (modello CEN); infatti queste ultime sono un recepimento letterale di quelle europee, sebbene esse si basino su tipologie costruttive, materiali e tecniche di realizzazione differenti da quelle comunemente in uso in Italia; da qui la difformità di risultati tra formule previsionali e misurazioni sperimentali. Al fine di realizzare uno studio completo delle principali casistiche della trasmissione laterale sono state utilizzate 6 configurazioni in scala reale, con elementi edilizi diversamente collegati fra loro in modo da simulare i nodi strutturali comunemente realizzati negli edifici. La parte sperimentale della ricerca è stata svolta presso le “Camere Acustiche di Prova” del Laboratorio del Lazzaretto “R. Alessi” del DIENCA. Oltre alle usuali misurazioni di isolamento acustico, sono state eseguite numerose misurazioni di vibrazione. Infatti, dal confronto dei livelli di velocità di vibrazione dei diversi elementi di una struttura, rigidamente connessi, è possibile determinare l’indice di riduzione delle vibrazioni Kij che è la grandezza chiave per modellizzare il fenomeno della trasmissione laterale. La possibilità di determinare sperimentalmente tali valori nel contesto di un lavoro di ricerca finalizzato a determinare i meccanismi di propagazione delle vibrazioni nelle strutture, permette di valutare la precisione delle formule previsionali del modello CEN e di proporne varianti e integrazioni. I valori di Kij così determinati assumono grande importanza anche in fase di progetto, fornendo dati attendibili da utilizzare per la progettazione acustica degli edifici.
Resumo:
La ricerca si pone come obbiettivo principale quello di individuare gli strumenti in grado di controllare la qualità di una progettazione specifica che risponde alle forti richieste della domanda turistica di un territorio. Parte dalle più semplici teorie che inquadrano una costante condizione dell’uomo, “il VIAGGIARE”. La ricerca si pone come primo interrogativo quello definire una “dimensione” in cui le persone viaggiano, dove il concetto fisico di spazio dedicato alla vita si è spostato come e quanto si sposta la gente. Esiste una sorta di macroluogo (destinazione) che comprende tutti gli spazi dove la gente arriva e da cui spesso riparte. Pensare all'architettura dell’ospitalità significa indagare e comprendere come la casa non è più il solo luogo dove la gente abita. La ricerca affonda le proprie tesi sull’importanza dei “luoghi” appartenenti ad un territorio e come essi debbano riappropriarsi, attraverso un percorso progettuale, della loro più stretta vocazione attrattiva. Così come si sviluppa un’architettura dello stare, si manifesta un’architettura dello spostarsi e tali architetture si confondono e si integrano ad un territorio che per sua natura è esso stesso attrattivo. L’origine terminologica di nomadismo è passaggio necessario per la comprensione di una nuova dimensione architettonica legata a concetti quali mobilità e abitare. Si indaga pertanto all’interno della letteratura “diasporica”, in cui compaiono le prime configurazioni legate alla provvisorietà e alle costruzioni “erranti”. In sintesi, dopo aver posizionato e classificato il fenomeno turistico come nuova forma dell’abitare, senza il quale non si potrebbe svolgere una completa programmazione territoriale in quanto fenomeno oramai imprescindibile, la ricerca procede con l’individuazione di un ambito inteso come strumento di indagine sulle relazioni tra le diverse categorie e “tipologie” turistiche. La Riviera Romagnola è sicuramente molto famosa per la sua ospitalità e per le imponenti infrastrutture turistiche ma a livello industriale non è meno famosa per il porto di Ravenna che costituisce un punto di riferimento logistico per lo scambio di merci e materie prime via mare, oltre che essere, in tutta la sua estensione, caso di eccellenza. La provincia di Ravenna mette insieme tutti i fattori che servono a soddisfare le Total Leisure Experience, cioè esperienze di totale appagamento durante la vacanza. Quello che emerge dalle considerazioni svolte sul territorio ravennate è che il turista moderno non va più in cerca di una vacanza monotematica, in cui stare solo in spiaggia o occuparsi esclusivamente di monumenti e cultura. La richiesta è quella di un piacere procurato da una molteplicità di elementi. Pensiamo ad un distretto turistico dove l’offerta, oltre alla spiaggia o gli itinerari culturali, è anche occasione per fare sport o fitness, per rilassarsi in luoghi sereni, per gustare o acquistare cibi tipici e, allo stesso tempo, godere degli stessi servizi che una persona può avere a disposizione nella propria casa. Il percorso, finalizzato a definire un metodo di progettazione dell’ospitalità, parte dalla acquisizione delle esperienze nazionali ed internazionali avvenute negli ultimi dieci anni. La suddetta fase di ricerca “tipologica” si è conclusa in una valutazione critica che mette in evidenza punti di forza e punti di debolezza delle esperienze prese in esame. La conclusione di questa esplorazione ha prodotto una prima stesura degli “obbiettivi concettuali” legati alla elaborazione di un modello architettonico. Il progetto di ricerca in oggetto converge sul percorso tracciato dai Fiumi Uniti in Ravenna. Tale scelta consente di prendere in considerazione un parametro che mostri fattori di continuità tra costa e città, tra turismo balneare e turismo culturale, considerato quindi come potenziale strumento di connessione tra realtà spesso omologhe o complementari, in vista di una implementazione turistica che il progetto di ricerca ha come primo tra i suoi obiettivi. Il tema dell’architettura dell’ospitalità, che in questo caso si concretizza nell’idea di sperimentare l’ALBERGO DIFFUSO, è quello che permette di evidenziare al meglio la forma specifica della cultura locale, salvandone la vocazione universale. La proposta progettuale si articola in uno studio consequenziale ed organico in grado di promuovere una riflessione originale sul tema del modulo “abitativo” nei luoghi di prossimità delle emergenze territoriali di specifico interesse, attorno alle quali la crescente affluenza di un’utenza fortemente differenziata evidenzia la necessità di nodi singolari che si prestino a soddisfare una molteplicità di usi in contesti di grande pregio.
Resumo:
L’analisi condotta nella tesi mira ad indagare le determinanti del debito delle piccole e medie imprese italiane: la domanda di ricerca è indirizzata a capire se la struttura finanziaria di queste ultime segue i modelli teorici sviluppati nell’ambito della letteratura di Corporate Finance o se, d’altro canto, non sia possibile prescindere dalle peculiarità delle piccole e medie imprese per spiegare il ricorso alle diverse fonti di finanziamento. La ricerca empirica effettuata nella dissertazione vuole essere un tentativo di coniugare le teorie di riferimento e le evidenze empiriche relative alle piccole e medie imprese italiane, analizzandone il comportamento attraverso lo studio del campione di dati fornito da Capitalia, relativo alla Nona Indagine per il periodo 2001-2003. Il campione in oggetto fa riferimento a circa 4000 imprese con più di 10 addetti, prevalentemente del settore manifatturiero. Per indagare le determinanti del debito nelle sue componenti più tradizionali, si sono prese in considerazione il debito commerciale e il debito bancario a breve termine come forme di finanziamento correnti mentre, tra le forme di finanziamento di medio-lungo periodo, le variabili usate sono state il ricorso al debito bancario a lungo termine e a strumenti obbligazionari. Inoltre, si è ricorso anche a misure più tradizionali di leva finanziaria, quali il rapporto di indebitamento, la proporzione tra debiti bancari, sia di breve che di lungo periodo, e l’ammontare dei finanziamenti esterni rispetto al valore dell’impresa, distinguendo anche qui, tra finanziamenti a breve e a lungo termine. L’analisi descrittiva ha mostrato il massiccio ricorso al debito bancario e, in generale, alle forme di indebitamento a breve. Le imprese di dimensioni minori, più giovani e opache tendono a ricorrere alle fonti interne e a forme di indebitamento a breve, mentre le imprese maggiormente dimensionate mostrano una struttura del debito più articolata. Questo ha suggerito la definizione di una diversa misura di debito, che tiene conto della complessità della sua struttura all’interno delle imprese, in base ad un ricorso di tipo gerarchico alle fonti di finanziamento: il grado di complessità dipende dalle tipologie e dalla quantità dei contratti di debito conclusi dall’impresa . E’ plausibile pensare che le imprese ricorrano prima alle fonti interne di finanziamento, perché prive di costi, e poi all’indebitamento nei confronti di diversi stakeholders: rispetto alla prossimità e alla facilità dell’ottenimento del finanziamento, è sembrato naturale pensare che un’impresa ricorra dapprima al debito commerciale, poi al debito bancario e solo infine all’emissione di obbligazioni, in un ordine gerarchico. Ne consegue che se un’impresa (non) ha contratto debiti con fornitori, banche e mercato, la complessità della struttura del suo debito è massima (nulla). L’analisi econometrica successiva è stata indirizzata in tre direzioni. In primis, l’analisi longitudinale dei dati è stata volta ad evidenziare se la struttura finanziaria delle PMI risponde ad un particolare modello teorico, in accordo con le teoria tradizionali di riferimento. In secondo luogo, l’analisi delle determinanti si è allargata allo studio degli aspetti peculiari delle imprese medio-piccole. Infine, si è indagato se, nell’ambito delle imprese di dimensioni minori, si osservano comportamenti omogenei oppure se determinate scelte nelle fonti di finanziamento sono da ricondurre all’esistenza di alcuni vincoli. Quindi, partendo dalla rassegna dei principali riferimenti nella letteratura, costituiti dalla Trade-off theory (Modigliani e Miller, 1963, De Angelo e Masulis, 1980, Miller, 1977), dalla Pecking order theory (Myers 1984, Myers e Majluf, 1984) e dalla Financial growth cycle theory (Berger e Udell, 1998), una prima serie di analisi econometriche è stata rivolta alla verifica empirica delle teorie suddette. Una seconda analisi mira, invece, a capire se il comportamento delle imprese possa essere spiegato anche da altri fattori: il modello del ciclo di vita dell’impresa, mutuato dalle discipline manageriali, così come il contesto italiano e la particolarità del rapporto bancaimpresa, hanno suggerito l’analisi di altre determinanti al ricorso delle diverse fonti di debito. Di conseguenza, si sono usate delle opportune analisi econometriche per evidenziare se la struttura proprietaria e di controllo dell’impresa, il suo livello di complessità organizzativa possano incidere sulla struttura del debito delle imprese. Poi, si è indagato se il massiccio ricorso al debito bancario è spiegato dalle peculiarità del rapporto banca-impresa nel nostro Paese, rintracciabili nei fenomeni tipici del relationship lending e del multiaffidamento. Ancora, si sono verificati i possibili effetti di tale rapporto sulla complessità della struttura del debito delle imprese. Infine, l’analisi della letteratura recente sulla capital structure delle imprese, l’approccio sviluppato da Fazzari Hubbard e Petersen (1988) e Almeida e Campello (2006 , 2007) ha suggerito un ultimo livello di analisi. La presenza di vincoli nelle decisioni di finanziamento, legati essenzialmente alla profittabilità, alla dimensione delle imprese, alle sue opportunità di crescita, e alla reputazione verso l’esterno, secondo la letteratura recente, è cruciale nell’analisi delle differenze sistematiche di comportamento delle imprese. Per di più, all’interno del lavoro di tesi, così come in Almeida e Campello (2007), si è ipotizzato che la propensione agli investimenti possa essere considerata un fattore endogeno rispetto alla struttura del debito delle imprese, non esogeno come la letteratura tradizionale vuole. Per questo motivo, si è proceduto ad un ultimo tipo di analisi econometrica, volta a rilevare possibili differenze significative nel comportamento delle imprese rispetto al ricorso alle fonti di finanziamento a titolo di debito: nel caso in cui esse presentino una dimensione contenuta, una bassa redditività e una scarsa reputazione all’esterno infatti, vi dovrebbe essere un effetto di complementarietà tra fonti interne ed esterne. L’effetto sarebbe tale per cui non sussisterebbe, o per lo meno non sarebbe significativa, una relazione negativa tra fonti interne ed esterne. Complessivamente, i risultati delle analisi empiriche condotte, supportano sia le teorie classiche di riferimento nell’ambito della disciplina della Corporate finance, sia la teoria proposta da Berger e Udell (1998): le variabili che risultano significative nella spiegazione della struttura del debito sono principalmente quelle relative alla dimensione, all’età, al livello e alla qualità delle informazioni disponibili. Inoltre, il ricorso a fonti interne risulta essere la primaria fonte di finanziamento, seguita dal debito. Il ricorso a fonti esterne, in particolare al debito bancario, aumenta quanto più l’impresa cresce, ha una struttura solida e la capacità di fornire delle garanzie, e ha una reputazione forte. La struttura del debito, peraltro, diventa più complessa all’aumentare della dimensione, dell’età e del livello di informazioni disponibili. L’analisi della struttura proprietaria e della componente organizzativa all’interno delle imprese ha evidenziato principalmente che la struttura del debito aumenta di complessità con maggiore probabilità se la proprietà è diffusa, se vi è un management indipendente e se la piramide organizzativa è ben definita. Relativamente al rapporto banca-impresa, i principali risultati mostrano che l’indebitamento bancario sembra essere favorito dai fenomeni di relationship lending e dal multiaffidamento. Tali peculiarità assumono tratti diversi a seconda della fase del ciclo di vita delle imprese della Nona Indagine. Infine, per quanto attiene all’ultima tipologia di analisi condotta, le evidenze empiriche suggeriscono che le piccole e medie imprese possano essere soggette a delle restrizioni che si riflettono nell’ambito delle loro politiche di investimento. Tali vincoli, relativi alla dimensione, ai profitti conseguiti e alla reputazione all’esterno, aiutano a spiegare le scelte di finanziamento delle PMI del campione.
Resumo:
In Italia, il contesto legislativo e l’ambiente competitivo dei Confidi è profondamente mutato negli ultimi anni a seguito dell’emanazione di due nuove normative: la “Legge Quadro” sui Confidi e la nuova regolamentazione del capitale di vigilanza nelle banche (c.d. "Basilea 2"). la Legge Quadro impone ai Confidi di adottare uno dei seguenti status societari: i) ente iscritto all’albo di cui all’art. 106 del Testo Unico Bancario (TUB); ii) ente iscritto all’albo di cui all’art. 107 del Testo Unico Bancario; iii) banca cooperativa di garanzia collettiva dei fidi. Fermi restando i requisiti soggettivi sui garanti ammessi da Basilea 2, la modalità tecnica finora utilizzata dai Confidi non risponde ai requisiti oggettivi. Il pensiero strategico si enuclea nelle seguenti domande: A) qual è la missione del Confidi (perché esistono i Confidi)? B) Quali prodotti e servizi dovrebbero offrire per raggiungere la loro missione? C) Quale modello organizzativo e di governance si conforma meglio per l'offerta dei prodotti e servizi individuati come necessari per il raggiungimento della missione? Le riflessioni condotte nell’ambito di un quadro di riferimento delineato dal ruolo delle garanzie nel mercato del credito bancario, dalle “Nuove disposizioni di vigilanza prudenziale per le banche”, dalla “Legge Quadro” sui e, infine, dall’assetto istituzionale ed operativo dei Confidi si riassumono nelle seguenti deduzioni: Proposizione I: segmentare la domanda prima di adeguare l’offerta; Proposizione II: le operazioni tranched cover sono un'alternativa relativamente efficiente per l'operatività dei Confidi, anche per quelli non vigilati; Proposizione III: solo i Confidi‐banca hanno la necessità di dotarsi di un rating esterno; Proposizione IV: le banche sono nuovi Clienti dei Confidi: offrire servizi di outsourcing (remunerati), ma non impieghi di capitale; Proposizione V: le aggregazioni inter settoriali nel medesimo territorio sono da preferirsi alle aggregazioni inter territoriali fra Confidi del medesimo settore. Alle future ricerche è affidato il compito di verificare: quali opzioni strategiche nel concreato siano state applicate; quali siano state le determinati di tali scelte; il grado di soddisfacimento dei bisogni degli stakeholder dei Confidi; misurare i benefici conseguiti nell'efficienza allocativa del credito.
Resumo:
La tesi è il frutto di un lavoro di ricerca sul rapporto tra educazione e politica sviluppato considerando letteratura, studi e ricerche in ambito pedagogico, sociologico e delle scienze politiche. I nuclei tematici oggetto delle letture preliminari e degli approfondimenti successivi che sono diventati il corpo della tesi sono i seguenti: • la crisi del ruolo dei partiti politici in Italia e in Europa: diminuiscono gli iscritti e la capacità di dare corpo a proposte politiche credibili che provengano dalla “base”dei partiti; • la crisi del sistema formativo1 in Italia e il fatto che l’educazione alla cittadinanza sia poco promossa e praticata nelle scuole e nelle istituzioni; • la diffusa mancanza di fiducia degli adolescenti e dei giovani nei confronti delle istituzioni (scuola inclusa) e della politica in molti Paesi del mondo2; i giovani sono in linea con il mondo adulto nel dimostrare i sintomi di “apatia politica” che si manifesta anche come avversione verso la politica; • il fatto che le teorie e gli studi sulla democrazia non siano stati in grado di prevenire la sistematica esclusione di larghi segmenti di cittadinanza dalle dinamiche decisionali dimostrando che la democrazia formale sia drasticamente differente da quella sostanziale. Una categoria tra le più escluse dalle decisioni è quella dei minori in età. Queste tematiche, se poste in relazione, ci inducono a riflettere sullo stato della democrazia e ci invitano a cercare nuovi orizzonti in cui inserire riflessioni sulla cittadinanza partendo dall’interesse centrale delle scienze pedagogiche: il ruolo dell’educazione. Essenziale è il tema dei diritti umani: per cominciare, rileviamo che sebbene la Convenzione internazionale sui diritti dell’infanzia sia stata approvata da quasi vent’anni (nel 1989) e malgrado numerose istituzioni nazionali e internazionali (Onu, Consiglio d’Europa, Banca Mondiale, Unesco) continuino ad impegnarsi nella promozione dei diritti sanciti e ratificati con leggi da quasi tutti i Paesi del mondo, questi diritti sono spesso trascurati: in particolare i diritti di bambini, adolescenti e giovani fino a 18 anni ad essere ascoltati, ad esprimersi liberamente, a ricevere informazioni adeguate nonché il diritto ad associarsi. L’effetto di tale trascuratezza, ossia la scarsa partecipazione di adolescenti e giovani alla vita sociale e politica in ogni parte del mondo (Italia inclusa) è un problema su cui cercheremo di riflettere e trovare soluzioni. Dalle più recenti ricerche svolte sul rapporto tra giovani e politica3, risulta che sono in particolare i giovani tra i quindici e i diciassette anni a provare “disgusto” per la politica e a non avere alcune fiducia né nei confronti dei politici, né delle istituzioni. Il disgusto è strettamente legato alla sfiducia, alla delusione , alla disillusione che oltretutto porta al rifiuto per la politica e quindi anche a non informarsi volutamente, a tenere ciò che riguarda la politica lontano dalla propria sfera personale. In Italia, ciò non è una novità. Né i governi che si sono succeduti dagli anni dell’Unità ad oggi, né le teorie democratiche italiane e internazionali sono riusciti a cambiare l’approccio degli italiani alla politica: “fissità della cultura politica, indolenza di fronte alla mancanza di cultura della legalità, livelli bassi di informazione, di competenza, di fiducia nella democrazia”4. Tra i numerosi fattori presi in analisi nelle ricerche internazionali (cfr. Cap. I par.65) ve ne sono due che si è scoperto influenzano notevolmente la partecipazione politica della popolazione e che vedono l’Italia distante dalle altre democrazie europee: 1) la vicinanza alla religione istituzionale , 2) i caratteri della morale6. Religione istituzionale Non c’è studio o ricerca che non documenti la progressiva secolarizzazione degli stati. Eppure, dividendo la popolazione dei Paesi in: 1) non credenti, 2) credenti non praticanti e 3) credenti praticanti, fatto salvo per la Francia, si assiste ad una crescita dei “credenti non praticanti” in Europa e dei “credenti praticanti” in particolare in Italia (risultavano da un’indagine del 2005, il 42% della popolazione italiana). La spiegazione di questa “controtendenza” dell’Italia, spiega la Sciolla, “potrebbe essere il crescente ruolo pubblico assunto dalla Chiesa italiana e della sua sempre più pervasiva presenza su temi di interesse pubblico o direttamente politico (dalla fecondazione assistita alle unioni tra omosessuali) oltreché alla sua visibilità mediatica che, insieme al generale e diffuso disorientamento, potrebbe aver esercitato un autorevole richiamo”. Pluralismo morale Frutto innanzitutto del processo di individualizzazione che erode le forme assolute di autorità e le strutture gerarchiche e dell’affermarsi dei diritti umani con l’ampliamento degli spazi di libertà di coscienza dei singoli. Una conferma sul piano empirico di questo quadro è data dal monitoraggio di due configurazioni valoriali che più hanno a che vedere con la partecipazione politica: 1) Grado di civismo (in inglese civicness) che raggruppa giudizi sui comportamenti lesivi dell’interesse pubblico (non pagare le tasse, anteporre il proprio interesse e vantaggio personale all’interesse pubblico). 2) Libertarismo morale o cultura dei diritti ovvero difesa dei diritti della persona e della sua liberà di scelta (riguarda la sessualità, il corpo e in generale la possibilità di disporre di sé) In Italia, il civismo ha subito negli anni novanta un drastico calo e non è più tornato ai livelli precedenti. Il libertarismo è invece aumentato in tutti i Paesi ma Italia e Stati Uniti hanno tutt’ora un livello basso rispetto agli altri Stati. I più libertari sono gli strati giovani ed istruiti della popolazione. Queste caratteristiche degli italiani sono riconducibili alla storia del nostro Paese, alla sua identità fragile, mai compatta ed unitaria. Non è possibile tralasciare l’influenza che la Chiesa ha sempre avuto nelle scelte politiche e culturali del nostro Paese. Limitando il campo al secolo scorso, dobbiamo considerare che la Chiesa cattolica ha avuto continuativamente un ruolo di forte ingerenza nei confronti delle scelte dei governi (scelte che, come vedremo nel Cap. I, par.2 hanno influenzato le scelte sulla scuola e sull’educazione) che si sono succeduti dal 1948 ad oggi7. Ciò ha influito nei costumi della nostra società caratterizzandoci come Stato sui generis nel panorama europeo Inoltre possiamo definire l’Italia uno "Stato nazionale ed unitario" ma la sua identità resta plurinazionale: vi sono nazionalità, trasformate in minoranze, comprese e compresse nel suo territorio; lo Stato affermò la sua unità con le armi dell'esercito piemontese e questa unità è ancora da conquistare pienamente. Lo stesso Salvemini fu tra quanti invocarono un garante per le minoranze constatando che di fronte a leggi applicate da maggioranze senza controllo superiore, le minoranze non hanno sicurezza. Riteniamo queste riflessioni sull’identità dello Stato Italiano doverose per dare a questa ricerca sulla promozione della partecipazione politica di adolescenti e giovani, sull’educazione alla cittadinanza e sul ruolo degli enti locali una opportuna cornice culturale e di contesto. Educazione alla cittadinanza In questo scritto “consideriamo che lo stimolo al cambiamento e al controllo di ciò che succede nelle sfere della politica, la difesa stessa della democrazia, è più facile che avvenga se i membri di una comunità, singolarmente o associandosi, si tengono bene informati, possiedono capacità riflessive e argomentative, sono dunque adeguatamente competenti e in grado di formarsi un’opinione autonoma e di esprimerla pubblicamente. In questo senso potremmo dire che proprio l’educazione alla democrazia, di chi nella democrazia vive, godendone i vantaggi, è stata rappresentata da Montiesquieu e da J.S Mill come uno dei caratteri basilari della democrazia stessa e la sua assenza come uno dei peggiori rischi in cui si può incorrere”8 L’educazione alla cittadinanza - considerata come cornice di un ampio spettro di competenze, complessivamente legate alla partecipazione e pienamente consapevole alla vita politica e sociale - e in particolare la formazione alla cittadinanza attiva sono da tempo riconosciute come elementi indispensabili per il miglioramento delle condizioni di benessere dei singoli e delle società e sono elementi imprescindibili per costituire un credibile patto sociale democratico. Ma che tipo di sistema formativo meglio si adatta ad un Paese dove - decennio dopo decennio - i decisori politici (la classe politica) sembrano progressivamente allontanarsi dalla vita dei cittadini e non propongono un’idea credibile di stato, un progetto lungimirante per l’Italia, dove la politica viene vissuta come distante dalla vita quotidiana e dove sfiducia e disgusto per la politica sono sentimenti provati in particolare da adolescenti e giovani? Dove la religione e il mercato hanno un potere concorrente a quello dei principi democratici ? La pedagogia può in questo momento storico ricoprire un ruolo di grande importanza. Ma non è possibile formulare risposte e proposte educative prendendo in analisi una sola istituzione nel suo rapporto con adolescenti e giovani. Famiglia, scuola, enti locali, terzo settore, devono essere prese in considerazione nella loro interdipendenza. Certo, rispetto all’educazione alla cittadinanza, la scuola ha avuto, almeno sulla carta, un ruolo preminente avendo da sempre l’obiettivo di formare “l’uomo e il cittadino” e prevedendo l’insegnamento dell’educazione civica. Ma oggi, demandare il ruolo della “formazione del cittadino” unicamente alla scuola, non è una scelta saggia. La comunità, il territorio e quindi le istituzioni devono avere un ruolo forte e collaborare con la scuola. Educazione formale, non formale e informale devono compenetrarsi. Gli studi e le riflessioni della scrivente hanno portato all’ individuazione degli enti locali come potenziali luoghi privilegiati della formazione politica dei giovani e dell’educazione alla cittadinanza. Gli enti locali I Comuni, essendo le Istituzioni più vicine ai cittadini, possono essere il primo luogo dove praticare cittadinanza attiva traducendo in pratiche anche le politiche elaborate a livello regionale e nazionale. Sostiene la Carta riveduta della partecipazione dei giovani9 “La partecipazione attiva dei giovani alle decisioni e alle attività a livello locale e regionale è essenziale se si vogliono costruire società più democratiche, solidali e prospere. Partecipare alla vita politica di una comunità, qualunque essa sia, non implica però unicamente il fatto di votare e presentarsi alle elezioni, per quanto importanti siano tali elementi. Partecipare ed essere un cittadino attivo vuol dire avere i diritti, gli strumenti intellettuali e materiali, il luogo, la possibilità, e, se del caso, il necessario sostegno per intervenire nelle decisioni, influenzarle ed impegnarsi in attività e iniziative che possano determinare la costruzione di una società migliore”. In Italia, il ruolo degli enti locali è stato per lo più dominante nella definizione delle politiche sociali, sanitarie ed educative ma è divenuto centrale soprattutto in seguito alla riforma del titolo V della Costituzione italiana operata nel 2001. Sono gli enti locali – le Regioni in primis – ad avere la funzione istituzionale di legiferare rispetto ai temi inerenti il sociale. Le proposte e le azioni di Province e Comuni dovrebbero ispirarsi al “principio di sussidiarietà” espresso nell’art. 118 della Costituzione: «Stato, Regioni, Province, Città metropolitane, Comuni favoriscono l’autonoma iniziativa dei cittadini singoli e associati, per lo svolgimento di attività di interesse generale, sulla base del principio di sussidiarietà»10 e nei Trattati dell’Unione Europea. Il Trattato istitutivo della Comunità europea accoglie il principio nell’art.5 “La Comunità agisce nei limiti delle competenze che le sono conferite e degli obiettivi che le sono assegnati dal presente trattato. Nei settori che non sono di sua esclusiva competenza la Comunità interviene, secondo il principio della sussidiarietà, soltanto se e nella misura in cui gli obiettivi dell'azione prevista non possono essere sufficientemente realizzati dagli Stati membri e possono dunque, a motivo delle dimensioni o degli effetti dell'azione in questione, essere realizzati meglio a livello comunitario (…)”. Il principio di sussidiarietà può dunque essere recepito anche prevedendo, promuovendo e accogliendo la partecipazione dei cittadini alla vita della città in molteplici forme. Conseguentemente, facilitare l’avvicinamento degli adolescenti e dei giovani (in quanto cittadini) alla vita collettiva, al bene pubblico, alla politica considerandoli una risorsa e mettendoli nelle condizioni di essere socialmente e politicamente attivi rientra nelle possibili applicazioni del principio di sussidiarietà. L’oggetto della ricerca La ricerca condotta dalla scrivente prende le mosse dal paradigma ecologico e si ispira allo stile fenomenologico prendendo in analisi un contesto determinato da numerosi soggetti tra loro interrelati. La domanda di ricerca: “gli enti locali possono promuovere di progetti e interventi di educazione alla cittadinanza di cui adolescenti e giovani siano protagonisti? Se si, in che modo?”. Gli studi preliminari alla ricerca hanno mostrato uno scenario complesso che non era mai stato preso in analisi da chi si occupa di educazione. E’ stato dunque necessario comprendere: 1) Il ruolo e le funzioni degli enti locali rispetto alle politiche educative e di welfare in generale in Italia 2) La condizione di adolescenti e giovani in Italia e nel mondo 3) Che cos’è l’educazione alla cittadinanza 4) Che cosa si può intendere per partecipazione giovanile Per questo il lavoro di ricerca empirica svolto dalla scrivente è basato sulla realizzazione di due indagini esplorative (“Enti locali, giovani e politica (2005/2006)11 e “Nuovi cittadini di pace” (2006/2007)12) tramite le quali è stato possibile esaminare progetti e servizi di promozione della partecipazione degli adolescenti e dei giovani alla vita dei Comuni di quattro regioni italiane e in particolare della Regione Emilia-Romagna. L’oggetto dell’interesse delle due indagini è (attraverso l’analisi di progetti e servizi e di testimonianze di amministratori, tecnici e politici) esplorare le modalità con cui gli enti locali (i Comuni in particolare) esplicano la loro funzione formativa rivolta ad adolescenti e giovani in relazione all’educazione alla cittadinanza democratica. Ai fini delle nostre riflessioni ci siamo interessati di progetti, sevizi permanenti e iniziative rivolti alla fascia d’età che va dagli 11 ai 20/22 anni ossia quegli anni in cui si giocano molte delle sfide che portano i giovani ad accedere al mondo degli adulti in maniera “piena e autentica” o meno. Dall’analisi dei dati, emergono osservazioni su come gli enti locali possano educare alla cittadinanza in rete con altre istituzioni (la scuola, le associazioni), promuovendo servizi e progetti che diano ad adolescenti e giovani la possibilità di mettersi all’opera, di avere un ruolo attivo, realizzare qualche cosa ed esserne responsabili (e nel frattempo apprendere come funziona e che cos’è il governo di una città, di un territorio), intrecciare relazioni, lavorare in gruppo, in una cornice che va al di là delle politiche giovanili e che propone politiche integrate. In questo contesto il ruolo degli adulti (genitori, insegnanti, educatori, politici) è centrale: è dunque essenziale che le famiglie, il mondo della scuola, gli attivisti dei partiti politici, le istituzioni e il mondo dell’informazione attraverso l’agire quotidiano, dimostrino ad adolescenti e giovani coerenza tra azioni e idee dimostrando fiducia nelle istituzioni, tenendo comportamenti coerenti e autorevoli improntati sul rispetto assoluto della legalità, per esempio. Per questo, la prima fase di approfondimento qualitativo delle indagini è avvenuta tramite interviste in profondità a decisori politici e amministratori tecnici. Il primo capitolo affronta il tema della crisi della democrazia ossia il fatto che le democrazie odierne stiano vivendo una fase di dibattito interno e di riflessione verso una prospettiva di cambiamento necessaria. Il tema dell’inserimento dei diritti umani nel panorama del dibattito sulle società democratiche e sulla cittadinanza si intreccia con i temi della globalizzazione, della crisi dei partiti politici (fenomeno molto accentuato in Italia). In questa situazione di smarrimento e di incertezza, un’operazione politica e culturale che metta al primo posto l’educazione e i diritti umani potrebbe essere l’ancora di salvezza da gettare in un oceano di incoerenza e di speranze perdute. E’ necessario riformare il sistema formativo italiano investendo risorse sull’educazione alla cittadinanza in particolare per adolescenti e giovani ma anche per coloro che lavorano con e per i giovani: insegnanti, educatori, amministratori. La scolarizzazione, la formazione per tutto l’arco della vita sono alcuni dei criteri su cui oggi nuovi approcci misurano il benessere dei Paesi e sono diritti inalienabili sanciti, per bambini e ragazzi dalla Convenzione internazionale sui diritti dell’infanzia.13 La pedagogia e la politica devono avere in questo momento storico un ruolo di primo piano; gli obiettivi a cui dovrebbero tendere sono la diffusione di una cultura dei diritti, una cultura del rispetto dell’infanzia e di attenzione prioritaria ai temi del’educazione alla cittadinanza. “Rimuovere gli ostacoli sociali ed economici”14 a che questi diritti vengano rispettati è compito dello Stato e anche degli enti locali. Il secondo capitolo descrive la condizione dei giovani nel mondo e in Italia in rapporto ai diritti di partecipazione. Il contesto mondiale che la Banca Mondiale (organismo dell’Onu)15 dipinge è potenzialmente positivo: “il numero di giovani tra i 12 e i 24 anni è intorno a 1, 3 miliardi ossia il livello più elevato della storia; questo gruppo è in migliore salute e meglio istruito di sempre. I Paesi ricchi come quelli poveri devono approfittare di questa opportunità prima che l’invecchiamento della società metta fine a questo periodo potenzialmente assai fruttuoso per il mondo intero. In Italia invece “Viene dipinto un quadro deprimente in cui “gli adulti mandano segnali incerti, ambigui, contraddittori. Se si può dunque imputare qualcosa alle generazioni dei giovani oggi è di essere, per certi versi, troppo simili ai loro padri e alle loro madri”16 Nel capitolo vengono mostrati e commentati i dati emersi da rapporti e ricerche di organizzazioni internazionali che dimostrano come anche dal livello di istruzione, di accesso alla cultura, ma in particolare dal livello di partecipazione attiva alla vita civica dei giovani, dipenda il futuro del globo intero e dunque anche del nostro Paese . Viene inoltre descritto l’evolversi delle politiche giovanili in Italia anche in rapporto al mutare del significato del concetto controverso di “partecipazione”: il termine è presente in numerose carte e documenti internazionali nonché utilizzato nei programmi politici delle amministrazioni comunali ma sviscerarne il significato e collocarlo al di fuori dei luoghi comuni e dell’utilizzo demagogico obbliga ad un’analisi approfondita e multidimensionale della sua traduzione in azioni. Gli enti locali continuano ad essere l’oggetto principale del nostro interesse. Per questo vengono riportati i risultati di un’indagine nazionale sui servizi pubblici per adolescenti che sono utili per contestualizzare le indagini regionali svolte dalla scrivente. Nel terzo capitolo si esamina l’ “educazione alla cittadinanza” a partire dalla definizione del Consiglio d’Europa (EDC) cercando di fornire un quadro accurato sui contenuti che le pertengono ma soprattutto sulle metodologie da intraprendere per mettere autenticamente in pratica l’EDC. La partecipazione di adolescenti e giovani risulta essere un elemento fondamentale per promuovere e realizzare l’educazione alla cittadinanza in contesti formali, non formali e informali. Il quarto capitolo riporta alcune riflessioni sulla ricerca pedagogica in Italia e nel panorama internazionale e pone le basi ontologiche ed epistemologiche della ricerca svolta dalla scrivente. Nel quinto capitolo vengono descritte dettagliatamente le due indagini svolte dalla scrivente per raccogliere dati e materiali di documentazione sui progetti di promozione della partecipazione dei giovani promossi dagli Enti locali emiliano-romagnoli ai fini dell’educazione alla cittadinanza. “Enti locali, giovani e politica” indagine sui progetti di promozione della partecipazione sociale e politica che coinvolgono ragazzi tra i 15 e i 20 anni. E “Nuovi cittadini di pace”, un’indagine sui Consigli dei ragazzi nella Provincia di Bologna. Nel sesto capitolo la scrivente formula alcune conclusioni e proposte operative concentrando la propria attenzione in particolare sulle questione della formazione di educatori e facilitatori che operano in contesti di educazione non formale interistituzionale, sulla necessità di una ampia diffusione di una cultura dei diritti dell’infanzia e dell’adolescenza nel mondo della politica e della scuola e su un utilizzo del dialogo autentico (in quanto principio democratico) per far sì che adolescenti, giovani e adulti possano collaborare e contribuire insieme alla formulazione di politiche e alla realizzazione di progetti comuni. Ci sembra infine che si debba riconoscere che è tempo di puntare con tutte le forze e in tutti i setting educativi disponibili su un impegno formativo in cui la dimensione politica non solo sia chiaramente e consapevolmente presente, ma sia considerata una delle sue caratteristiche principali. Il nostro tempo lo richiede con urgenza: l’alternativa rischia di essere la disfatta dell’intera umanità e dunque l’impossibilità per l’uomo di realizzarsi nel suo più elevato significato e nel suo autentico valore. I giovani sempre più lo chiedono anche se non sempre utilizzano linguaggi decifrabili dagli adulti.