214 resultados para Bioingegneria, Modelli matematici, Sistema cardiovascolare, Modello di Guyton, Contropulsazione esterna
Resumo:
Il modello afflussi-deflussi e di erosione Kineros2, fisicamente basato, distribuito e a scala di evento, è stato applicato a due bacini idrografici montani della provincia di Bologna (Italia) al fine di testare e valutare il suo funzionamento in ambiente appenninico. Dopo la parametrizzazione dei due bacini, Kineros2 è stato calibrato e validato utilizzando dati sperimentali di portata e di concentrazione dei solidi sospesi, collezionati alla chiusura dei bacini grazie alla presenza di due stazioni di monitoraggio idrotorbidimetrico. La modellazione ha consentito di valutare la capacità del modello di riprodurre correttamente le dinamiche idrologiche osservate, nonchè di trarre conclusioni sulle sue potenzialità e limitazioni.
Resumo:
Il trasporto intermodale ha acquisito un ruolo sempre più importante nello scenario dei trasporti comunitari merci durante gli ultimi quindici anni. La sfida che si era posta a inizi anni novanta in Europa consisteva nello sviluppo di una rete europea di trasporto combinato strada-ferrovia. A questo fine è stata fondamentale la cooperazione tra gli operatori del settore e le istituzioni (comunitarie e nazionali), nonché l’impulso dato dalla liberalizzazione del trasporto ferroviario, che fortemente influenza il trasporto combinato. Questa tesi, in particolare, intende studiare il ruolo del Sistema Gateway come strumento innovativo e di nuovo impulso per lo sviluppo della rete di trasporto combinato strada-rotaia in ambito europeo. Grazie a questo sistema, le unità di carico, dirette in una determinata regione, giungono ad un "Terminal Gateway", dove secondo un sistema di tipo “hub-and-spoke” vengono trasbordate a mezzo gru su treni “Shuttle” verso la destinazione finale. Tutto ciò avviene con operazioni fortemente automatizzate e veloci con sensibile vantaggio in termini di tempo e costi. La tesi parte da una descrizione del trasporto intermodale, facendo un focus sugli aspetti strutturali, tecnici e organizzativi del trasporto combinato strada – rotaia e del suo funzionamento. Passando attraverso l’analisi delle reti di trasporto merci in Europa, nel secondo capitolo. Il terzo capitolo entra nel vivo della Tesi introducendo l’oggetto dell’indagine: il Sistema Gateway nell’ambito dello sviluppo della rete europea del traffico combinato strada-ferrovia. Nella seconda parte della tesi è voluto studiare il Sistema Gateway con l’ausilio dei metodi d’analisi che vengono applicati per la scelta fra progetti alternativi nel campo della pianificazione dei trasporti, pertanto sono stati presi in rassegna e descritti i metodi più utilizzati: l’Analisi Benefici-Costi e l’Analisi Multicriteria. Nel caso applicativo è stata utilizzata l’Analisi Benefici-Costi. Infine nel capitolo sesto è stato presentato dettagliatamente il caso reale di studio che riguarda il progetto per la trasformazione del terminal di Verona Quadrante Europa in un terminal gateway.
Resumo:
Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.
Resumo:
In martial arts there are several ways to perform the turning kick . Following the martial arts or different learning models many types of kicks take shape. Mawashi geri is the karate turning kick. At the moment there are two models of mawashi geri, one comes from the traditional karate (OLD), and the other newer (NEW), who agrees to the change of the rules of W.K.F. (World Karate Federation) happened in 2000 (Macan J. et all 2006) . In this study we are focus on the differences about two models the mawashi geri jodan of karate. The purpose of this study is to analyse cinematic and kinetic parameters of mawashi geri jodan. Timing of the striking and supporting leg actions were also evaluated A Vicon system 460 IR with 6 cameras at sample frequency of 200 Hz was used. 37 reflective markers have been set on the skin of the subjects following the “PlugInGait-total body model”. The participants performed five repetitions of mawashi geri jodan at maximum rapidity with their dominant leg against a ball suspended in front of them placed at ear height. Fourteen skilled subjects (mean level black belt 1,7 dan; age 20,9±4,8 yrs; height 171,4±7,3 cm; weight 60,9±10,2 Kg) practicing karate have been split in two group through the hierarchical cluster analysis following their technical characteristics. By means of the Mann Whitney-U test (Spss-package) the differences between the two groups were verified in preparatory and execution phase. Kicking knee at start, kicking hip and knee at take-off were different between the two groups (p < 0,05). Striking hip flexion during the spin of the supporting foot was different between the two groups (p < 0,05). Peak angular velocity of hip flexion were different between the two groups (p < 0,05). Groups showed differences also in timing of the supporting spin movement. While Old group spin the supporting foot at 30% of the trial, instead New start spinning at 44% of the trial. Old group showed a greater supporting foot spin than New (Old 110° Vs New 82°). Abduction values didn’t show any differences between the two groups. At the hit has been evaluated a 120° of double hips abduction, for the entire sample. Striking knee extension happened for everybody after the kicking hip flexion and confirm the proximal-distal action of the striking leg (Sorensen H. 1996). In contrast with Pearson J.N. 1997 and Landeo R 2007, peak velocity of the striking foot is not useful to describe kick performance because affected by the stature. Two groups are different either in preparatory phase or in execution phase. The body is set in difference manner already before the take-off of the kicking foot. The groups differ for the timing of the supporting foot action Trainer should pay attention to starting posture and on abduction capacities of the athletes.
Resumo:
La ricerca svolta ha individuato fra i suoi elementi promotori l’orientamento determinato da parte della comunità europea di dare vita e sostegno ad ambiti territoriali intermedi sub nazionali di tipo regionale all’interno dei quali i sistemi di città potessero raggiungere le massime prestazioni tecnologiche per cogliere gli effetti positivi delle innovazioni. L’orientamento europeo si è confrontato con una realtà storica e geografica molto variata in quanto accanto a stati membri, nei quali le gerarchie fra città sono storicamente radicate e funzionalmente differenziate secondo un ordine che vede la città capitale dominante su città subalterne nelle quali la cultura di dominio del territorio non è né continua né gerarchizzata sussistono invece territori nazionali compositi con una città capitale di riconosciuto potere ma con città di minor dimensione che da secoli esprimono una radicata incisività nella organizzazione del territorio di appartenenza. Alla prima tipologia di stati appartengono ad esempio i Paesi del Nord Europa e l’Inghilterra, esprimendo nella Francia una situazione emblematica, alla seconda tipologia appartengono invece i Paesi dell’aera mediterranea, Italia in primis, con la grande eccezione della Germania. Applicando gli intendimenti comunitari alla realtà locale nazionale, questa tesi ha avviato un approfondimento di tipo metodologico e procedurale sulla possibile organizzazione a sistema di una regione fortemente policentrica nel suo sviluppo e “artificiosamente” rinata ad unità, dopo le vicende del XIX secolo: l’Emilia-Romagna. Anche nelle regioni che si presentano come storicamente organizzate sulla pluralità di centri emergenti, il rapporto col territorio è mediato da centri urbani minori che governano il tessuto cellulare delle aggregazioni di servizi di chiara origine agraria. Questo stato di cose comporta a livello politico -istituzionale una dialettica vivace fra territori voluti dalle istituzioni e territori legittimati dal consolidamento delle tradizioni confermato dall’uso attuale. La crescente domanda di capacità di governo dello sviluppo formulata dagli operatori economici locali e sostenuta dalle istituzioni europee si confronta con la scarsa capacità degli enti territoriali attuali: Regioni, Comuni e Province di raggiungere un livello di efficienza sufficiente ad organizzare sistemi di servizi adeguati a sostegno della crescita economica. Nel primo capitolo, dopo un breve approfondimento sulle “figure retoriche comunitarie”, quali il policentrismo, la governance, la coesione territoriale, utilizzate per descrivere questi fenomeni in atto, si analizzano gli strumenti programmatici europei e lo S.S.S.E,. in primis, che recita “Per garantire uno sviluppo regionale equilibrato nella piena integrazione anche nell’economia mondiale, va perseguito un modello di sviluppo policentrico, al fine di impedire un’ulteriore eccessiva concentrazione della forza economica e della popolazione nei territori centrali dell’UE. Solo sviluppando ulteriormente la struttura, relativamente decentrata, degli insediamenti è possibile sfruttare il potenziale economico di tutte le regioni europee.” La tesi si inserisce nella fase storica in cui si tenta di definire quali siano i nuovi territori funzionali e su quali criteri si basa la loro riconoscibilità; nel tentativo di adeguare ad essi, riformandoli, i territori istituzionali. Ai territori funzionali occorre riportare la futura fiscalità, ed è la scala adeguata per l'impostazione della maggior parte delle politiche, tutti aspetti che richiederanno anche la necessità di avere una traduzione in termini di rappresentanza/sanzionabilità politica da parte dei cittadini. Il nuovo governo auspicato dalla Comunità Europea prevede una gestione attraverso Sistemi Locali Territoriali (S.Lo.t.) definiti dalla combinazione di milieu locale e reti di attori che si comportano come un attore collettivo. Infatti il secondo capitolo parte con l’indagare il concetto di “regione funzionale”, definito sulla base della presenza di un nucleo e di una corrispondente area di influenza; che interagisce con altre realtà territoriali in base a relazioni di tipo funzionale, per poi arrivare alla definizione di un Sistema Locale territoriale, modello evoluto di regione funzionale che può essere pensato come una rete locale di soggetti i quali, in funzione degli specifici rapporti che intrattengono fra loro e con le specificità territoriali del milieu locale in cui operano e agiscono, si comportano come un soggetto collettivo. Identificare un sistema territoriale, è una condizione necessaria, ma non sufficiente, per definire qualsiasi forma di pianificazione o governance territoriale, perchè si deve soprattutto tener conto dei processi di integrazione funzionale e di networking che si vengono a generare tra i diversi sistemi urbani e che sono specchio di come il territorio viene realmente fruito., perciò solo un approccio metodologico capace di sfumare e di sovrapporre le diverse perimetrazioni territoriali riesce a definire delle aree sulle quali definire un’azione di governo del territorio. Sin dall’inizio del 2000 il Servizio Sviluppo Territoriale dell’OCSE ha condotto un’indagine per capire come i diversi paesi identificavano empiricamente le regioni funzionali. La stragrande maggioranza dei paesi adotta una definizione di regione funzionale basata sul pendolarismo. I confini delle regioni funzionali sono stati definiti infatti sulla base di “contorni” determinati dai mercati locali del lavoro, a loro volta identificati sulla base di indicatori relativi alla mobilità del lavoro. In Italia, la definizione di area urbana funzionale viene a coincidere di fatto con quella di Sistema Locale del Lavoro (SLL). Il fatto di scegliere dati statistici legati a caratteristiche demografiche è un elemento fondamentale che determina l’ubicazione di alcuni servizi ed attrezzature e una mappa per gli investimenti nel settore sia pubblico che privato. Nell’ambito dei programmi europei aventi come obiettivo lo sviluppo sostenibile ed equilibrato del territorio fatto di aree funzionali in relazione fra loro, uno degli studi di maggior rilievo è stato condotto da ESPON (European Spatial Planning Observation Network) e riguarda l’adeguamento delle politiche alle caratteristiche dei territori d’Europa, creando un sistema permanente di monitoraggio del territorio europeo. Sulla base di tali indicatori vengono costruiti i ranking dei diversi FUA e quelli che presentano punteggi (medi) elevati vengono classificati come MEGA. In questo senso, i MEGA sono FUA/SLL particolarmente performanti. In Italia ve ne sono complessivamente sei, di cui uno nella regione Emilia-Romagna (Bologna). Le FUA sono spazialmente interconnesse ed è possibile sovrapporre le loro aree di influenza. Tuttavia, occorre considerare il fatto che la prossimità spaziale è solo uno degli aspetti di interazione tra le città, l’altro aspetto importante è quello delle reti. Per capire quanto siano policentrici o monocentrici i paesi europei, il Progetto Espon ha esaminato per ogni FUA tre differenti parametri: la grandezza, la posizione ed i collegamenti fra i centri. La fase di analisi della tesi ricostruisce l’evoluzione storica degli strumenti della pianificazione regionale analizzandone gli aspetti organizzativi del livello intermedio, evidenziando motivazioni e criteri adottati nella suddivisione del territorio emilianoromagnolo (i comprensori, i distretti industriali, i sistemi locali del lavoro…). La fase comprensoriale e quella dei distretti, anche se per certi versi effimere, hanno avuto comunque il merito di confermare l’esigenza di avere un forte organismo intermedio di programmazione e pianificazione. Nel 2007 la Regione Emilia Romagna, nell’interpretare le proprie articolazioni territoriali interne, ha adeguato le proprie tecniche analitiche interpretative alle direttive contenute nel Progetto E.S.P.O.N. del 2001, ciò ha permesso di individuare sei S.Lo.T ( Sistemi Territoriali ad alta polarizzazione urbana; Sistemi Urbani Metropolitani; Sistemi Città – Territorio; Sistemi a media polarizzazione urbana; Sistemi a bassa polarizzazione urbana; Reti di centri urbani di piccole dimensioni). Altra linea di lavoro della tesi di dottorato ha riguardato la controriprova empirica degli effettivi confini degli S.Lo.T del PTR 2007 . Dal punto di vista metodologico si è utilizzato lo strumento delle Cluster Analisys per impiegare il singolo comune come polo di partenza dei movimenti per la mia analisi, eliminare inevitabili approssimazioni introdotte dalle perimetrazioni legate agli SLL e soprattutto cogliere al meglio le sfumature dei confini amministrativi dei diversi comuni e province spesso sovrapposti fra loro. La novità è costituita dal fatto che fino al 2001 la regione aveva definito sullo stesso territorio una pluralità di ambiti intermedi non univocamente circoscritti per tutte le funzioni ma definiti secondo un criterio analitico matematico dipendente dall’attività settoriale dominante. In contemporanea col processo di rinnovamento della politica locale in atto nei principali Paesi dell’Europa Comunitaria si va delineando una significativa evoluzione per adeguare le istituzioni pubbliche che in Italia comporta l’attuazione del Titolo V della Costituzione. In tale titolo si disegna un nuovo assetto dei vari livelli Istituzionali, assumendo come criteri di riferimento la semplificazione dell’assetto amministrativo e la razionalizzazione della spesa pubblica complessiva. In questa prospettiva la dimensione provinciale parrebbe essere quella tecnicamente più idonea per il minimo livello di pianificazione territoriale decentrata ma nel contempo la provincia come ente amministrativo intermedio palesa forti carenze motivazionali in quanto l’ente storico di riferimento della pianificazione è il comune e l’ente di gestione delegato dallo stato è la regione: in generale troppo piccolo il comune per fare una programmazione di sviluppo, troppo grande la regione per cogliere gli impulsi alla crescita dei territori e delle realtà locali. Questa considerazione poi deve trovare elementi di compatibilità con la piccola dimensione territoriale delle regioni italiane se confrontate con le regioni europee ed i Laender tedeschi. L'individuazione di criteri oggettivi (funzionali e non formali) per l'individuazione/delimitazione di territori funzionali e lo scambio di prestazioni tra di essi sono la condizione necessaria per superare l'attuale natura opzionale dei processi di cooperazione interistituzionale (tra comuni, ad esempio appartenenti allo stesso territorio funzionale). A questo riguardo molto utile è l'esperienza delle associazioni, ma anche delle unioni di comuni. Le esigenze della pianificazione nel riordino delle istituzioni politico territoriali decentrate, costituiscono il punto finale della ricerca svolta, che vede confermato il livello intermedio come ottimale per la pianificazione. Tale livello è da intendere come dimensione geografica di riferimento e non come ambito di decisioni amministrative, di governance e potrebbe essere validamente gestito attraverso un’agenzia privato-pubblica dello sviluppo, alla quale affidare la formulazione del piano e la sua gestione. E perché ciò avvenga è necessario che il piano regionale formulato da organi politici autonomi, coordinati dall’attività dello stato abbia caratteri definiti e fattibilità economico concreta.
Resumo:
La tesi si pone come obiettivo quello di indagare le mostre di moda contemporanee come macchine testuali. Se consideriamo l’attuale panorama del fashion design come caratterizzato da una complessità costitutiva e da rapidi mutamenti che lo attraversano, e se partiamo dal presupposto che lo spettro di significati che uno stile di abbigliamento e i singoli capi possono assumere è estremamente sfuggente, probabilmente risulta più produttivo interrogarsi su come funziona la moda, su quali sono i suoi meccanismi di produzione di significato. L’analisi delle fashion exhibition si rivela quindi un modo utile per affrontare la questione, dato che gli allestimenti discorsivizzano questi meccanismi e rappresentano delle riflessioni tridimensionali attorno a temi specifici. La mostra di moda mette in scena delle eccezionalità che magnificano aspetti tipici del funzionamento del fashion system, sia se ci rivolgiamo alla moda dal punto di vista della produzione, sia se la consideriamo dal punto di vista della fruizione. L’indagine ha rintracciato nelle mostre curate da Diana Vreeland al Costume Institute del Metropolitan Museum di New York il modello di riferimento per le mostre di moda contemporanee. Vreeland, che dal 1936 al 1971 è stata prima fashion editor e poi editor-in-chief rispettivamente di “Harper’s Bazaar” e di “Vogue USA”, ha segnato un passaggio fondamentale quando nel 1972 ha deciso di accettare il ruolo di Special Consultant al Costume Institute. È ormai opinione diffusa fra critici e studiosi di moda che le mostre da lei organizzate nel corso di più di un decennio abbiano cambiato il modo di mettere in scena i vestiti nei musei. Al lavoro di Vreeland abbiamo poi accostato una recente mostra di moda che ha fatto molto parlare di sé: Spectres. When Fashion Turns Back, a cura di Judith Clark (2004). Nell’indagare i rapporti fra il fashion design contemporaneo e la storia della moda questa mostra ha utilizzato macchine allestitive abitate dai vestiti, per “costruire idee spaziali” e mettere in scena delle connessioni non immediate fra passato e presente. Questa mostra ci è sembrata centrale per evidenziare lo sguardo semiotico del curatore nel suo interrogarsi sul progetto complessivo dell’exhibition design e non semplicemente sullo studio degli abiti in mostra. In questo modo abbiamo delineato due posizioni: una rappresentata da un approccio object-based all’analisi del vestito, che si lega direttamente alla tradizione dei conservatori museali; l’altra rappresentata da quella che ormai si può considerare una disciplina, il fashion curation, che attribuisce molta importanza a tutti gli aspetti che concorrono a formare il progetto allestitivo di una mostra. Un lavoro comparativo fra alcune delle più importanti mostre di moda recentemente organizzate ci ha permesso di individuare elementi ricorrenti e specificità di questi dispositivi testuali. Utilizzando il contributo di Manar Hammad (2006) abbiamo preso in considerazione i diversi livelli di una mostra di moda: gli abiti e il loro rapporto con i manichini; l’exhibition design e lo spazio della mostra; il percorso e la sequenza, sia dal punto di vista della strategia di costruzione e dispiegamento testuale, sia dal punto di vista del fruitore modello. Abbiamo così individuato quattro gruppi di mostre di moda: mostre museali-archivistiche; retrospettive monografiche; mostre legate alla figura di un curatore; forme miste che si posizionano trasversalmente rispetto a questi primi tre modelli. Questa sistematizzazione ha evidenziato che una delle dimensione centrali per le mostre di moda contemporanee è proprio la questione della curatorship, che possiamo leggere in termini di autorialità ed enunciazione. Si sono ulteriormente chiariti anche gli orizzonti valoriali di riferimento: alla dimensione dell’accuratezza storica è associata una mostra che predilige il livello degli oggetti (gli abiti) e un coinvolgimento del visitatore puramente visivo; alla dimensione del piacere visivo possiamo invece associare un modello di mostra che assegna all’exhibition design un ruolo centrale e “chiede” al visitatore di giocare un ruolo pienamente interattivo. L’approccio curatoriale più compiuto ci sembra essere quello che cerca di conciliare queste due dimensioni.
Resumo:
Lo scopo di questa dissertazione è quello di costruire un modello di promozione della salute nel contesto di lavoro in relazione al consumo di sostanze psicoattive fra lavoratori, attraverso il confronto tra la situazione italiana e inglese. L’ipotesi di fondo rimanda all’idea che i luoghi di lavoro possano rappresentare setting d’elezione per i progetti di prevenzione non solo perché alcuni studi dimostrano l’esistenza di fattori di rischio connessi alla mansione rispetto alle condotte relative allo stile di vita, ma anche perché il consumo di alcol e droghe è altamente diffuso tra i lavoratori e questo comporta rischi per la sicurezza e la salute personale nonché quella dei colleghi di lavoro. Si tratta quindi di indagare il rapporto tra contesto lavorativo e utilizzo di sostanze al fine di suggerire alla luce degli studi internazionali in materia e delle riflessioni condotte dai soggetti coinvolti nella ricerca che si andrà a presentare linee guida e indicazioni operative per la realizzazione di interventi di promozione alla salute nei contesti professionali. A tal fine, saranno analizzati gli esiti di 13 focus group che hanno coinvolto esperti italiani e 6 interviste somministrate a esperti inglesi volti a definire la situazione attuale in Italia e Gran Bretagna in materia di prevenzione del consumo di alcol e droghe nei luoghi di lavoro. In particolare, l’analisi verterà sulle seguenti aree: - Percezione circa la diffusione dei consumi nei luoghi di lavoro - Presentazione delle politiche adottate, in logica comparativa, tra i due paesi. - Analisi critica degli interventi e problematiche aperte. L’analisi del materiale empirico permette di delineare due modelli costruiti sulla base dei focus group e delle interviste: - in Italia si può affermare che prevalga il cd. modello della sicurezza: di recente trasformazione, questo sistema enfatizza la dimensione del controllo, tanto che si parla di sorveglianza sanitaria. É orientato alla sicurezza concepita quale rimozione dei fattori di rischio. Il consumo di sostanze (anche sporadico) è inteso quale espressione di una patologia che richiede l’intervento sanitario secondo modalità previste dal quadro normativo: una procedura che annulla la discrezionalità sia del datore di lavoro sia del medico competente. Si connota inoltre per contraddizioni interne e trasversali rispetto alle categorie lavorative (i controlli non si applicano alle professioni associate a maggiore prestigio sociale sebbene palesemente associate a rischio, come per esempio i medici) e alle sostanze (atteggiamento repressivo soprattutto verso le droghe illegali); - in Gran Bretagna, invece, il modello si configura come responsabilità bilaterale: secondo questo modello, se è vero che il datore di lavoro può decidere in merito all’attuazione di misure preventive in materia di alcol e droghe nei luoghi di lavoro, egli è ritenuto responsabile della mancata vigilanza. D’altro canto, il lavoratore che non rispetta quanto previsto nella politica scritta può essere soggetto a licenziamento per motivi disciplinari. Questo modello, particolarmente attento al consumo di tutte le sostanze psicoattive (legali e illegali), considera il consumo quale esito di una libera scelta individuale attraverso la quale il lavoratore decide di consumare alcol e droghe così come decide di dedicarsi ad altre condotte a rischio. Si propone di ri-orientare le strategie analizzate nei due paesi europei presi in esame attraverso la realizzazione di un modello della promozione della salute fondato su alcuni punti chiave: – coinvolgimento di tutti i lavoratori (e non solo coloro che svolgono mansioni a rischio per la sicurezza) al fine di promuovere benessere secondo un approccio olistico di salute, orientato ad intervenire non soltanto in materia di consumo di sostanze psicoattive (legali e illegali), ma più in generale sulle condotte a rischio; – compartecipazione nelle diverse fasi (programmazione, realizzazione e valutazione del progetto) del lavoratore, datore di lavoro e medico competente secondo una logica di flessibilità, responsabilizzazione condivisa fra i diversi attori, personalizzazione e co-gestione dell’intervento; – azione volta a promuovere i fattori di protezione agendo simultaneamente sul contrasto dei fattori di rischio (stress, alienazione, scarso riconoscimento del ruolo svolto), attraverso interventi che integrano diverse strategie operative alla luce delle evidenze scientifiche (Evidence-Based Prevention); – ricorso a strumenti di controllo (drug testing) subordinato all’esigenza di tutelare l’incolumità fisica del lavoratore e dei colleghi, da attuarsi sempre e comunque attraverso prassi che non violino la privacy e attraverso strumenti in grado di verificare l’effettivo stato di alterazione psico-fisica sul luogo di lavoro; – demedicalizzazione delle situazioni di consumo che non richiedono un intervento prettamente sanitario, ma che al contrario potrebbero essere affrontate attraverso azioni incentrate sul care anziché la cure; – messa a disposizione di servizi ad hoc con funzione di supporto, counselling, orientamento per i lavoratori, non stigmatizzanti e con operatori di formazione non solamente sanitaria, sull’esempio degli EAPs (Employee Assistence Programs) statunitensi. Si ritiene che questo modello possa trasformare i contesti di lavoro da agenzie di controllo orientate alla sicurezza a luoghi di intervento orientati al benessere attraverso un’azione sinergica e congiunta volta a promuovere i fattori di protezione a discapito di quelli di rischio in modo tale da intervenire non soltanto sul consumo di sostanze psicotrope, ma più in generale sullo stile di vita che influenza la salute complessiva.
Il pensiero politico internazionale di Montesquieu: tra la geopolitica e le relazioni internazionali
Resumo:
La tesi ha mostrato come il pensiero politico di Montesquieu possa costituire un utile riferimento teorico per affrontare il problema della ricontestualizzazione dello studio delle relazioni internazionali. La prima parte del lavoro evidenzia alcuni aspetti del metodo di ricerca e del pensiero politico di Montesquieu. Nel primo capitolo, è stato identificato un metodo di ricerca ed un approccio sociologico nello studio della politica, che rappresenta un precedente rispetto alla fondazione di una scienza politica che si propone di identificare nessi causali tra i fenomeni politici. In particolare, si deve riconoscere a Montesquieu il merito di aver introdotto un tipo di analisi della politica che consideri l’interazione di più fattori tra loro. La complessità del reale può essere spiegata soltanto identificando i rapporti che si formano tra gli elementi della realtà. Quindi è possibile porre dei principi in grado di produrre un ordine conoscibile ed interpretabile di tutti questi elementi. Nel secondo capitolo è stata presentata un’analisi delle tipologie delle forme di governo e del concetto di libertà politica. Questo capitolo ha evidenziato solo alcuni aspetti del pensiero politico di Montesquieu utili alla comprensione del pensiero politico internazionale. In particolare, è stata analizzata la struttura e il ressort di ogni forma di governo sottolineando gli aspetti di corruzione e i relativi processi di mutamento. La seconda parte del lavoro ha affrontato l’analisi di un pensiero politico internazionale ed ha evidenziato la rilevanza di una riflessione geopolitica. Nel terzo capitolo abbiamo mostrato l’emersione di una riflessione su alcuni argomenti di relazioni internazionali, quali il problema della guerra e della pace, il diritto internazionale e l’interdipendenza economica, legandoli alle forme di governo. Quindi sono stati identificati ed analizzati tre modelli di sistema internazionale sottolineando in particolare il nesso con il concetto di società internazionale. Tra questi modelli di sistema internazionale, quello che presenta le caratteristiche più singolari, è certamente il sistema della federazione di repubbliche. Infine, nell’ultimo capitolo, abbiamo evidenziato l’importanza della rappresentazione spaziale del mondo di Montesquieu e l’uso di categorie concettuali e metodi di analisi della geopolitica. In particolare, è stata rilevata l’importanza dell’aspetto dimensionale per la comprensione delle dinamiche di ascesa e declino delle forme di Stato e delle forme di governo. Si è mostrato come non sia possibile ascrivere il pensiero di Montesquieu nella categoria del determinismo geografico o climatico. Al contrario, abbiamo evidenziato come tale pensiero possa essere considerato un precedente di una corrente di pensiero della geopolitica francese definita “possibilismo”. Secondo questa teoria i fattori ambientali, più che esercitare un’azione diretta sul comportamento dell’uomo, agiscono selezionando il campo delle scelte possibili.
Resumo:
La mostra è diventata un nuovo paradigma della cultura contemporanea. Sostenuta da proprie regole e da una grammatica complessa produce storie e narrazioni. La presente ricerca di dottorato si struttura come un ragionamento critico sulle strategie del display contemporaneo, tentando di dimostrare, con strumenti investigativi eterogenei, assumendo fonti eclettiche e molteplici approcci disciplinari - dall'arte contemporanea, alla critica d'arte, la museologia, la sociologia, l'architettura e gli studi curatoriali - come il display sia un modello discorsivo di produzione culturale con cui il curatore si esprime. La storia delle esposizioni del XX secolo è piena di tentativi di cambiamento del rapporto tra lo sviluppo di pratiche artistiche e la sperimentazione di un nuovo concetto di mostra. Nei tardi anni Sessanta l’ingresso, nella scena dell’arte, dell’area del concettuale, demolisce, con un azzeramento radicale, tutte le convenzioni della rappresentazione artistica del dopoguerra, ‘teatralizzando’ il medium della mostra come strumento di potere e introducendo un nuovo “stile di presentazione” dei lavori, un display ‘dematerializzato” che rovescia le classiche relazioni tra opera, artista, spazio e istituzione, tra un curatore che sparisce (Siegelaub) e un curatore super-artista (Szeemann), nel superamento del concetto tradizionale di mostra stessa, in cui il lavoro del curatore, in quanto autore creativo, assumeva una propria autonomia strutturale all’interno del sistema dell’arte. Lo studio delle radici di questo cambiamento, ossia l’emergere di due tipi di autorialità: il curatore indipendente e l’artista che produce installazioni, tra il 1968 e il 1972 (le mostre di Siegelaub e Szeemann, la mimesi delle pratiche artistiche e curatoriali di Broodthaers e la tensione tra i due ruoli generata dalla Critica Istituzionale) permette di inquadrare teoricamente il fenomeno. Uno degli obbiettivi della ricerca è stato anche affrontare la letteratura critica attraverso una revisione/costruzione storiografica sul display e la storia delle teorie e pratiche curatoriali - formalizzata in modo non sistematico all'inizio degli anni Novanta, a partire da una rilettura retrospettiva della esperienze delle neoavanguardie – assumendo materiali e metodologie provenienti, come già dichiarato, da ambiti differenti, come richiedeva la composizione sfaccettata e non fissata dell’oggetto di studio, con un atteggiamento che si può definire comparato e post-disciplinare. Il primo capitolo affronta gli anni Sessanta, con la successione sistematica dei primi episodi sperimentali attraverso tre direzioni: l’emergere e l’affermarsi del curatore come autore, la proliferazione di mostre alternative che sovvertivano il formato tradizionale e le innovazioni prodotte dagli artisti organizzatori di mostre della Critica Istituzionale. Esponendo la smaterializzazione concettuale, Seth Siegelaub, gallerista, critico e impresario del concettuale, ha realizzato una serie di mostre innovative; Harald Szeemann crea la posizione indipendente di exhibition maker a partire When attitudes become forms fino al display anarchico di Documenta V; gli artisti organizzatori di mostre della Critica Istituzionale, soprattutto Marcel Broodhthears col suo Musée d’Art Moderne, Départment des Aigles, analizzano la struttura della logica espositiva come opera d’arte. Nel secondo capitolo l’indagine si sposta verso la scena attivista e alternativa americana degli anni Ottanta: Martha Rosler, le pratiche community-based di Group Material, Border Art Workshop/Taller de Arte Fronterizo, Guerrilla Girls, ACT UP, Art Workers' Coalition che, con proposte diverse elaborano un nuovo modello educativo e/o partecipativo di mostra, che diventa anche terreno del confronto sociale. La mostra era uno svincolo cruciale tra l’arte e le opere rese accessibili al pubblico, in particolare le narrazioni, le idee, le storie attivate, attraverso un originale ragionamento sulle implicazioni sociali del ruolo del curatore che suggeriva punti di vista alternativi usando un forum istituzionale. Ogni modalità di display stabiliva relazioni nuove tra artisti, istituzioni e audience generando abitudini e rituali diversi per guardare la mostra. Il potere assegnato all’esposizione, creava contesti e situazioni da agire, che rovesciavano i metodi e i formati culturali tradizionali. Per Group Material, così come nelle reading-room di Martha Rosler, la mostra temporanea era un medium con cui si ‘postulavano’ le strutture di rappresentazione e i modelli sociali attraverso cui, regole, situazioni e luoghi erano spesso sovvertiti. Si propongono come artisti che stanno ridefinendo il ruolo della curatela (significativamente scartano la parola ‘curatori’ e si propongono come ‘organizzatori’). La situazione cambia nel 1989 con la caduta del muro di Berlino. Oltre agli sconvolgimenti geopolitici, la fine della guerra fredda e dell’ideologia, l’apertura ai flussi e gli scambi conseguenti al crollo delle frontiere, i profondi e drammatici cambiamenti politici che coinvolgono l’Europa, corrispondono al parallelo mutamento degli scenari culturali e delle pratiche espositive. Nel terzo capitolo si parte dall’analisi del rapporto tra esposizioni e Late Capitalist Museum - secondo la definizione di Rosalind Krauss - con due mostre cruciali: Le Magiciens de la Terre, alle origini del dibattito postcoloniale e attraverso il soggetto ineffabile di un’esposizione: Les Immatériaux, entrambe al Pompidou. Proseguendo nell’analisi dell’ampio corpus di saggi, articoli, approfondimenti dedicati alle grandi manifestazioni internazionali, e allo studio dell’espansione globale delle Biennali, avviene un cambiamento cruciale a partire da Documenta X del 1997: l’inclusione di lavori di natura interdisciplinare e la persistente integrazione di elementi discorsivi (100 days/100 guests). Nella maggior parte degli interventi in materia di esposizioni su scala globale oggi, quello che viene implicitamente o esplicitamente messo in discussione è il limite del concetto e della forma tradizionale di mostra. La sfida delle pratiche contemporanee è non essere più conformi alle tre unità classiche della modernità: unità di tempo, di spazio e di narrazione. L’episodio più emblematico viene quindi indagato nel terzo capitolo: la Documenta X di Catherine David, il cui merito maggiore è stato quello di dichiarare la mostra come format ormai insufficiente a rappresentare le nuove istanze contemporanee. Le quali avrebbero richiesto - altrimenti - una pluralità di modelli, di spazi e di tempi eterogenei per poter divenire un dispositivo culturale all’altezza dei tempi. La David decostruisce lo spazio museale come luogo esclusivo dell’estetico: dalla mostra laboratorio alla mostra come archivio, l’evento si svolge nel museo ma anche nella città, con sottili interventi di dissimulazione urbana, nel catalogo e nella piattaforma dei 100 giorni di dibattito. Il quarto capitolo affronta l’ultima declinazione di questa sperimentazione espositiva: il fenomeno della proliferazione delle Biennali nei processi di globalizzazione culturale. Dalla prima mostra postcoloniale, la Documenta 11 di Okwui Enwezor e il modello delle Platforms trans-disciplinari, al dissolvimento dei ruoli in uno scenario post-szeemanniano con gli esperimenti curatoriali su larga scala di Sogni e conflitti, alla 50° Biennale di Venezia. Sono analizzati diversi modelli espositivi (la mostra-arcipelago di Edouard Glissant; il display in crescita di Zone of Urgency come estetizzazione del disordine metropolitano; il format relazionale e performativo di Utopia Station; il modello del bric à brac; la “Scuola” di Manifesta 6). Alcune Biennali sono state sorprendentemente autoriflessive e hanno consentito un coinvolgimento più analitico con questa particolare forma espressiva. Qual è l'impatto sulla storia e il dibattito dei sistemi espositivi? Conclusioni: Cos’è la mostra oggi? Uno spazio sotto controllo, uno spazio del conflitto e del dissenso, un modello educativo e/o partecipativo? Una piattaforma, un dispositivo, un archivio? Uno spazio di negoziazione col mercato o uno spazio di riflessione e trasformazione? L’arte del display: ipotesi critiche, prospettive e sviluppi recenti.
Resumo:
This thesis investigates two distinct research topics. The main topic (Part I) is the computational modelling of cardiomyocytes derived from human stem cells, both embryonic (hESC-CM) and induced-pluripotent (hiPSC-CM). The aim of this research line lies in developing models of the electrophysiology of hESC-CM and hiPSC-CM in order to integrate the available experimental data and getting in-silico models to be used for studying/making new hypotheses/planning experiments on aspects not fully understood yet, such as the maturation process, the functionality of the Ca2+ hangling or why the hESC-CM/hiPSC-CM action potentials (APs) show some differences with respect to APs from adult cardiomyocytes. Chapter I.1 introduces the main concepts about hESC-CMs/hiPSC-CMs, the cardiac AP, and computational modelling. Chapter I.2 presents the hESC-CM AP model, able to simulate the maturation process through two developmental stages, Early and Late, based on experimental and literature data. Chapter I.3 describes the hiPSC-CM AP model, able to simulate the ventricular-like and atrial-like phenotypes. This model was used to assess which currents are responsible for the differences between the ventricular-like AP and the adult ventricular AP. The secondary topic (Part II) consists in the study of texture descriptors for biological image processing. Chapter II.1 provides an overview on important texture descriptors such as Local Binary Pattern or Local Phase Quantization. Moreover the non-binary coding and the multi-threshold approach are here introduced. Chapter II.2 shows that the non-binary coding and the multi-threshold approach improve the classification performance of cellular/sub-cellular part images, taken from six datasets. Chapter II.3 describes the case study of the classification of indirect immunofluorescence images of HEp2 cells, used for the antinuclear antibody clinical test. Finally the general conclusions are reported.
Resumo:
Lo scopo di questo studio è di valutare il significato prognostico dell'elettrocardiogramma standard in un'ampia casistica di pazienti affetti da cardiomiopatia ipertrofica. In questo studio multicentrico sono stati considerati 841 pazienti con cardiomiopatia ipertrofica (66% uomini, età media 48±17 anni) per un follow-up di 7.1±7.1 anni, per ognuno è stato analizzato il primo elettrocardiogramma disponibile. I risultati hanno dimostrato come fattori indipendentemente correlati a morte cardiaca improvvisa la sincope inspiegata (p 0.004), il sopraslivellamento del tratto ST e/o la presenza di onde T positive giganti (p 0.048), la durata del QRS >= 120 ms (p 0.017). Sono stati costruiti due modelli per predire il rischio di morte improvvisa: il primo basato sui fattori di rischio universalmente riconosciuti (spessore parietale >= 30 mm, tachicardie ventricolari non sostenute all'ECG Holter 24 ore, sincope e storia familiare di morte improvvisa) e il secondo con l'aggiunta delle variabili sopraslivellamento del tratto ST/onde T positive giganti e durata del QRS >= 120 ms. Entrambi i modelli stratificano i pazienti in base al numero dei fattori di rischio, ma il secondo modello risulta avere un valore predittivo maggiore (chi-square da 12 a 22, p 0.002). In conclusione nella cardiomiopatia ipertrofica l'elettrocardiogramma standard risulta avere un valore prognostico e migliora l'attuale modello di stratificazione per il rischio di morte improvvisa.
Resumo:
Con il termine IPC (precondizionamento ischemico) si indica un fenomeno per il quale, esponendo il cuore a brevi cicli di ischemie subletali prima di un danno ischemico prolungato, si conferisce una profonda resistenza all’infarto, una delle principali cause di invalidità e mortalità a livello mondiale. Studi recenti hanno suggerito che l’IPC sia in grado di migliorare la sopravvivenza, la mobilizzazione e l’integrazione di cellule staminali in aree ischemiche e che possa fornire una nuova strategia per potenziare l’efficacia della terapia cellulare cardiaca, un’area della ricerca in continuo sviluppo. L’IPC è difficilmente trasferibile nella pratica clinica ma, da anni, è ben documentato che gli oppioidi e i loro recettori hanno un ruolo cardioprotettivo e che attivano le vie di segnale coinvolte nell’IPC: sono quindi candidati ideali per una possibile terapia farmacologica alternativa all’IPC. Il trattamento di cardiomiociti con gli agonisti dei recettori oppioidi Dinorfina B, DADLE e Met-Encefalina potrebbe proteggere, quindi, le cellule dall’apoptosi causata da un ambiente ischemico ma potrebbe anche indurle a produrre fattori che richiamino elementi staminali. Per testare quest’ipotesi è stato messo a punto un modello di “microambiente ischemico” in vitro sui cardiomioblasti di ratto H9c2 ed è stato dimostrato che precondizionando le cellule in modo “continuativo” (ventiquattro ore di precondizionamento con oppioidi e successivamente ventiquattro ore di induzione del danno, continuando a somministrare i peptidi oppioidi) con Dinorfina B e DADLE si verifica una protezione diretta dall’apoptosi. Successivamente, saggi di migrazione e adesione hanno mostrato che DADLE agisce sulle H9c2 “ischemiche” spronandole a creare un microambiente capace di attirare cellule staminali mesenchimali umane (FMhMSC) e di potenziare le capacità adesive delle FMhMSC. I dati ottenuti suggeriscono, inoltre, che la capacità del microambiente ischemico trattato con DADLE di attirare le cellule staminali possa essere imputabile alla maggiore espressione di chemochine da parte delle H9c2.
Resumo:
Nell'ambito delle teorie dello sviluppo, un filone di studi, originato dai lavori di North (1973) e consolidatosi negli ultimi anni, individua nelle istituzioni, definite come le regole del gioco o i vincoli disegnati dagli uomini per disciplinare i loro rapporti, i fattori fondamentali dello sviluppo economico. Le istituzioni, nel modello elaborato da Acemoglu, Johnson e Robinson (2004), sono il frutto di interazioni dinamiche tra potere politico de jure, determinato dalle istituzioni politiche, e potere politico de facto, determinato dalla distribuzione delle risorse economiche. Sulla base di questa prospettiva teorica, questa tesi propone uno studio di carattere quantitativo sulla qualità istituzionale, la traduzione operativa del concetto di istituzioni, composta dalle tre fondamentali dimensioni di democrazia, efficienza ed efficacia del governo e assenza di corruzione. La prima parte, che analizza sistematicamente pro e contro di ciascuna tipologia di indicatori, è dedicata alla revisione delle misure quantitative di qualità istituzionale, e individua nei Worldwide Governance Indicators la misura più solida e consistente. Questi indici sono quindi utilizzati nella seconda parte, dove si propone un'analisi empirica sulle determinanti della qualità istituzionale. Le stime del modello di regressione cross-country evidenziano che la qualità istituzionale è influenzata da alcuni fattori prevalentemente esogeni come la geografia, la disponibilità di risorse naturali e altre caratteristiche storiche e culturali, insieme ad altri fattori di carattere più endogeno. In quest'ultima categoria, i risultati evidenziano un effetto positivo del livello di sviluppo economico, mentre la disuguaglianza economica mostra un impatto negativo su ciascuna delle tre dimensioni di qualità istituzionale, in particolare sulla corruzione. Questi risultati supportano la prospettiva teorica e suggeriscono che azioni di policy orientate alla riduzione delle disparità sono capaci di generare sviluppo rafforzando la democrazia, migliorando l'efficienza complessiva del sistema economico e riducendo i livelli di corruzione.
Resumo:
I tre capitoli in cui è suddiviso il lavoro cercano di offrire una ricognizione delle questioni che ruotano intorno alla sussistenza o meno di prerogative presidenziali riguardo l’attività legislativa, e in generale sulle eventuali trasformazioni avvenute, soprattutto negli ultimi anni, nel ruolo del Presidente della Repubblica all’interno del sistema costituzionale italiano. Il lavoro esordisce con una premessa metodologica con cui si tenta di valorizzare la questione relativa ai diversi approcci metodologici che si possono seguire nello studio delle tematiche presidenziali: ossia, tenere nettamente distinti il piano delle norme da quello delle prassi oppure analizzarli e valutarli congiuntamente. Il primo capitolo è dedicato all’analisi della figura presidenziale così come delineata dalla Costituzione e arricchita dagli oltre sessant’anni di letteratura costituzionale. Vengono quindi analizzate le disposizioni costituzionali di riferimento e viene dato conto delle principali teorie costituzionali espresse dalla letteratura giuridica. Il secondo capitolo è dedicato a quella che viene offerta come una delle possibili cause da cui traggono origine le evoluzioni registrate in questi ultimi anni dalla figura presidenziale: ossia, il mutamento del sistema costituzionale di rappresentanza politica. Tale elemento è analizzato soprattutto nel suo ambito istituzionale, vale a dire il modello di forma di governo rappresentato dal circuito parlamento-governo. Il terzo capitolo entra direttamente nelle due questioni di fondo della ricerca: da un lato lo studio della generale attività presidenziale di intervento nelle questioni politiche, attraverso comunicati o esternazioni; dall’altro lato l’analisi di alcuni specifici casi paradigmatici di intervento presidenziale in sede di emanazione o promulgazione (o, comunque, discussione) degli atti legislativi del governo e del parlamento, accaduti tra il 2006 e il 2013. Inoltre, il lavoro è arricchito da una importante sezione (allegata) di “case studies” contenente il risultato di una ricerca effettuata su oltre tremila documenti presidenziali, dal 2006 al 2013, resi pubblici dagli uffici del Quirinale.
Resumo:
Entro l’approccio concettuale e metodologico transdisciplinare della Scienza della Sostenibilità, la presente tesi elabora un background teorico per concettualizzare una definizione di sostenibilità sulla cui base proporre un modello di sviluppo alternativo a quello dominante, declinato in termini di proposte concrete entro il caso-studio di regolazione europea in materia di risparmio energetico. La ricerca, attraverso un’analisi transdisciplinare, identifica una crisi strutturale del modello di sviluppo dominante basato sulla crescita economica quale (unico) indicatore di benessere e una crisi valoriale. L’attenzione si concentra quindi sull’individuazione di un paradigma idoneo a rispondere alle criticità emerse dall’analisi. A tal fine vengono esaminati i concetti di sviluppo sostenibile e di sostenibilità, arrivando a proporre un nuovo paradigma (la “sostenibilità ecosistemica”) che dia conto dell’impossibilità di una crescita infinita su un sistema caratterizzato da risorse limitate. Vengono poi presentate delle proposte per un modello di sviluppo sostenibile alternativo a quello dominante. Siffatta elaborazione teorica viene declinata in termini concreti mediante l’elaborazione di un caso-studio. A tal fine, viene innanzitutto analizzata la funzione della regolazione come strumento per garantire l’applicazione pratica del modello teorico. L’attenzione è concentrata sul caso-studio rappresentato dalla politica e regolazione dell’Unione Europea in materia di risparmio ed efficienza energetica. Dall’analisi emerge una progressiva commistione tra i due concetti di risparmio energetico ed efficienza energetica, per la quale vengono avanzate delle motivazioni e individuati dei rischi in termini di effetti rebound. Per rispondere alle incongruenze tra obiettivo proclamato dall’Unione Europea di riduzione dei consumi energetici e politica effettivamente perseguita, viene proposta una forma di “regolazione per la sostenibilità” in ambito abitativo residenziale che, promuovendo la condivisione dei servizi energetici, recuperi il significato proprio di risparmio energetico come riduzione del consumo mediante cambiamenti di comportamento, arricchendolo di una nuova connotazione come “bene relazionale” per la promozione del benessere relazionale ed individuale.