106 resultados para serie di Fourier somme di Fejér convergenza puntuale e convergenza uniforme effetto Gibbs
Resumo:
La tesi analizza il rapporto tra pratiche sociali, modelli di insediamento e morfologia urbana in due casi di costruzione di un tessuto urbano operaio che si prestano ad una stimolante comparazione. Da un lato abbiamo degli immigrati verso un polo industriale dell’area metropolitana milanese (Sesto San Giovanni), dall’altro un bacino minerario vallone (La Louvière). Si tratta di contesti di inserimento in aree industriali profondamente differenti dal punto di vista della morfologia sociale e dell’organizzazione territoriale, che profilano spazi ibridi tra rurale e urbano in profonda e rapida trasformazione, a causa del massiccio afflusso di manodopera immigrata. Le profonde differenze tra le due aree consentono di mettere alla prova dell’analisi comparata concetti e percorsi storici dell’integrazione, del tessuto sociale che la presuppone, della cittadinanza, della costruzione delle identità collettive in modo da superare stereotipe dicotomie tra rurale/urbano, tradizione/moderno, integrazione/conflitto. La tesi sviluppa un’analisi parallela dei due casi lungo un crinale argomentativo unitario che si apre con una ricerca sui flussi migratori e i contesti di approdo delle migrazioni. Nei primi due capitoli viene delineato il contesto economico, sociale e territoriale nel quale si inseriscono i due processi migratori. Per il caso belga, si analizzano il ciclo economico dell’industria carbonifera, il processo di spopolamento della Vallonia, l’avvio dei flussi migratori al termine della seconda guerra mondiale e i meccanismi che li hanno presieduti, vale a dire una migrazione contrattata tra i due governi che spostavano migranti provenienti da poche e selezionate località, rendono conto del primo dei due flussi. Per quanto riguarda il caso interno, viene delineato il contesto della rapida urbanizzazione che porta una serie di comuni contermini al capoluogo lombardo ad entrare nell’orbita metropolitana, qualificandosi come poli periferici di un’area vasta e perdendo la riconoscibilità come nuclei urbani indipendenti. Delineato questo quadro generale, la tesi affronta la questione delle abitazioni e delle forme urbane che assumono queste due mete di migrazione. Per quanto riguarda La Louvière, è ricostruito il duro impatto con il mondo del lavoro nelle miniere e le miserevoli condizioni abitative dei primi immigrati, l’assenza di una iniziativa pubblica nel settore abitativo fino al 1954, solo debolmente compensata dalle iniziative patronali, e la fase invece della seconda metà degli anni ‘50 che porta alla stabilizzazione degli immigrati italiani nell’area. Di Sesto San Giovanni viene ricostruita la complessa transizione a moderna periferia urbana, a partire da insediamenti di tipo rurale, passando attraverso le «Coree» e l’iniziativa pubblica, locale e nazionale, nonché l’intervento edilizio delle grandi imprese industriali che operavano nel suo territorio. L’intervento urbanistico nella cintura metropolitana milanese era al centro di un vivace dibattito sulla pianificazione urbanistica a livello intercomunale che dà luogo a ricerche e studi sulla condizione abitativa. Nell’ultima parte della ricerca, si approfondiscono gli aspetti sociali e culturali del percorso di insediamento e di integrazione nel tessuto urbano. E’ in questa parte che vengono maggiormente utilizzate le fonti orali – sempre opportunamente affiancate e confrontate con altri documenti – al fine di individuare la percezione di sé, della propria identità, le relazioni con altri gruppi sociali, i cambiamenti che la migrazione e l’incontro con la città e l’industria portano nei ruoli di genere, nelle prospettive di vita, nei desideri e nei progetti di questi migranti. Rilevando le peculiarità di due esperienze sociali di migrazione che a partire da contesti di partenza molto simili e portando perlopiù dei contadini ad incontrare città di un mondo lontano, la comparazione profila dinamiche sociali, identitarie e politiche profondamente diverse nei bacini minerari valloni e nella metropoli del miracolo.
Resumo:
La presente tesi dimostra che la letteratura nera canadese può costituire una critica al concetto di appartenenza, così come è stato sempre rappresentato nel Canada anglofono. Più specificatamente, prende in considerazione tre scrittori contemporanei – George Elliott Clarke, Austin Clarke e Dionne Brand – che mettono in evidenza, seppure non nei termini classici, ciò che Stuart Hall descrive come “quegli aspetti delle nostre identità che scaturiscono dal nostro ‘appartenere’ a distinte culture etniche, razziali, linguistiche, religiose e soprattutto nazionali” (Stuart Hall, Modernity 596). Ognuno di essi, infatti, pone in evidenza il senso di appartenenza culturale in modo incerto, ambivalente e perfino estremamente critico. L’analisi dei loro testi, inoltre, è imprescindibile, dallo studio di tre discorsi (termine da intendersi secondo la definizione proposta da Ian Angus): il nazionalismo, il multiculturalismo e la diaspora che sembrano condizionare e limitare i termini semantici, concettuali e politici dell’appartenenza culturale, specialmente nell’ambito degli studi canadesi e postcoloniali. In realtà, autori quali Austin Clarke e Dionne Brand, offrendo una prospettiva unica ed originale da cui avviare una critica a tali concetti, propongono dei ‘linguaggi di appartenenza’ diversi e, di conseguenza, modi alternativi di manifestare e concretizzare, non solo un attaccamento culturale, ma anche un impegno politico profondo. Il lavoro è composto dall’Introduzione, in cui vengono esplicitate le ragioni dell’argomento scelto; il Capitolo I, che funge da impianto metodologico alla ricerca, spiega il concetto di appartenenza; da tre Capitoli centrali, ciascuno dedicato ad un singolo autore, che esaminano una serie di opere, di ogni singolo autore, al fine di esaminare e giudicare i tre discorsi; e dalla Conclusione che contiene delle considerazioni sul ruolo della letteratura nera canadese all’interno degli studi canadesi contemporanei e postcoloniali.
Resumo:
L'elaborato considera anzitutto la genesi dell'istituto, e con chiarezza analizza il percorso di affioramento della figura del distacco nell'impiego pubblico rimarcando affinità e differenze con ipotesi similari di temporanea dissociazione tra datore di lavoro e fruitore della prestazione. Nell'operare gli opportuni distinguo, il dott. Tortini si confronta con la fattispecie tipica del lavoro subordinato e con il divieto di dissociazione che ad essa sarebbe sotteso, anche alla luce della legge 1369 del 1960 sul divieto di interposizione. Gli elementi caratterizzanti il distacco sono poi esposti analizzando con acutezza i più rilevanti orientamenti emersi nella giurisprudenza di merito e di legittimità , in specie con riguardo alla prassi invalsa nei gruppi di società di dirigere la prestazione di lavoro a favore di società collegate o controllate dalla società datrice di lavoro. In tal senso l'elaborato prende posizione in ordine alla necessaria temporaneità dell'interesse del distaccante, nonchè all'inclusione del distacco nell'ambito del potere direttivo-organizzativo del datore di lavoro, ciò che esclude la necessità del consenso del lavoratore distaccato. Nel secondo capitolo il dott. Tortini si confronta con il quadro delle libertà fondamentali del diritto comunitario, ed in particolare con la libera prestazione di servizi, analizzando profili essenziali quali la natura autonoma, la transnazionalità e la temporaneità del servizio prestato. Con ampi riferimenti alla dottrina, anche comparata, in argomento, il capitolo delinea le possibili forme di interazione tra gli ordinamenti nazionali all'interno dell'Unione europea ed individua, in alternativa, tre modelli di coordinamento tra le esigenze liberalizzanti tipiche del mercato unico e le prerogative nazionali di tipo protezionistico che si manifestano qualora un servizio venga prestato in uno Stato membro diverso da quello in cui ha sede il prestatore: host state control, home state control e controllo sovranazionale. L'analisi si rivela essenziale al fine di delineare le ragioni della più recente giurisprudenza della Corte di giustizia in tema di appalti cross-border e libera circolazione dei lavoratori, e dimostra un sostanziale "slittamento" della base giuridica mediante la quale il diritto comunitario regola il fenomeno della prestazione di lavoro transnazionale, dall'art. 39 all'art. 49 TCE. Il terzo capitolo confronta l'impianto teorico ricavabile dai principi del Trattato con la Direttiva 96/71 sul distacco ed i relativi provvedimenti attuativi (d.lgs. n. 72/2000 e art. 30, d.lgs. n. 276/2003). In particolare, vengono analizzate le ipotesi limitrofe alla nozione di distacco ricavabile dal diritto comunitario, accomunate dalla dissociazione tra datore di lavoro ed utilizzatore della prestazione, ma distinguibili in base alla natura del rapporto contrattuale tra impresa distaccante ed impresa distaccataria. La funzione principale della Direttiva comunitaria in argomento viene individuata dal dott. Tortini nella predisposizione di una base inderogabile di diritti che devono essere, in ogni caso, assicurati al lavoratore oggetto del distacco. Questa base, denominata hard core della tutela, deve essere garantita, all'interno del singolo Stato membro, dalla contrattazione collettiva. Nell'ordinamento italiano, la disciplina del distacco contenuta nella Direttiva viene attuata con il d.lgs. n. 72/2000 che, come opportunamente segnalato dal dott. Tortini, contiene una serie di incongruenze e di lacune. Fra tutte, si rimarca come la stessa Commissione abbia rilevato uno scostamento tra le due discipline, dato che la legge italiana estende surrettiziamente ai lavoratori distaccati tutte le disposizioni legislative e/o i contratti collettivi che disciplinano le condizioni di lavoro, operazione non consentita dal la Direttiva 76/91. E' in specie il riferimento al contratto collettivo stipulato dalle organizzazioni comparativamente più rappresentative ad essere criticato dall'elaborato, in quanto finisce con il trasformare l'art. 3.1 del D. Lgs. 72/2000 in una discriminazione fondata sulla nazionalità e rischia di creare maggiori difficoltà e più oneri per gli imprenditori stranieri che intendano erogare servizi sul territorio nazionale. A conclusione della tesi, il dott. Tortini esamina la nozione di distacco introdotta ad opera dell'art. 30, d.lgs. n. 276/2003, ed enuclea gli elementi caratterizzanti dell'istituto, individuati nell'interesse del distaccante e nella temporaneità dell'assegnazione, definita «l'in sè» dell'interesse stesso.
Resumo:
La catena respiratoria mitocondriale è principalmente costituita da proteine integrali della membrana interna, che hanno la capacità di accoppiare il flusso elettronico, dovuto alle reazioni redox che esse catalizzano, al trasporto di protoni dalla matrice del mitocondrio verso lo spazio intermembrana. Qui i protoni accumulati creano un gradiente elettrochimico utile per la sintesi di ATP ad opera dell’ATP sintasi. Nonostante i notevoli sviluppi della ricerca sulla struttura e sul meccanismo d’azione dei singoli enzimi della catena, la sua organizzazione sovramolecolare, e le implicazioni funzionali che ne derivano, rimangono ancora da chiarire in maniera completa. Da questa problematica trae scopo la presente tesi volta allo studio dell’organizzazione strutturale sovramolecolare della catena respiratoria mediante indagini sia cinetiche che strutturali. Il modello di catena respiratoria più accreditato fino a qualche anno fa si basava sulla teoria delle collisioni casuali (random collision model) che considera i complessi come unità disperse nel doppio strato lipidico, ma collegate funzionalmente tra loro da componenti a basso peso molecolare (Coenzima Q10 e citocromo c). Recenti studi favoriscono invece una organizzazione almeno in parte in stato solido, in cui gli enzimi respiratori si presentano sotto forma di supercomplessi (respirosoma) con indirizzamento diretto (channeling) degli elettroni tra tutti i costituenti, senza distinzione tra fissi e mobili. L’importanza della comprensione delle relazioni che si instaurano tra i complessi , deriva dal fatto che la catena respiratoria gioca un ruolo fondamentale nell’invecchiamento, e nello sviluppo di alcune malattie cronico degenerative attraverso la genesi di specie reattive dell’ossigeno (ROS). E’ noto, infatti, che i ROS aggrediscono, anche i complessi respiratori e che questi, danneggiati, producono più ROS per cui si instaura un circolo vizioso difficile da interrompere. La nostra ipotesi è che, oltre al danno a carico dei singoli complessi, esista una correlazione tra le modificazioni della struttura del supercomplesso, stress ossidativo e deficit energetico. Infatti, la dissociazione del supercomplesso può influenzare la stabilità del Complesso I ed avere ripercussioni sul trasferimento elettronico e protonico; per cui non si può escludere che ciò porti ad un’ulteriore produzione di specie reattive dell’ossigeno. I dati sperimentali prodotti a sostegno del modello del respirosoma si riferiscono principalmente a studi strutturali di elettroforesi su gel di poliacrilammide in condizioni non denaturanti (BN-PAGE) che, però, non danno alcuna informazione sulla funzionalità dei supercomplessi. Pertanto nel nostro laboratorio, abbiamo sviluppato una indagine di tipo cinetico, basata sull’analisi del controllo di flusso metabolico,in grado di distinguere, funzionalmente, tra supercomplessi e complessi respiratori separati. Ciò è possibile in quanto, secondo la teoria del controllo di flusso, in un percorso metabolico lineare composto da una serie di enzimi distinti e connessi da intermedi mobili, ciascun enzima esercita un controllo (percentuale) differente sull’intero flusso metabolico; tale controllo è definito dal coefficiente di controllo di flusso, e la somma di tutti i coefficienti è uguale a 1. In un supercomplesso, invece, gli enzimi sono organizzati come subunità di una entità singola. In questo modo, ognuno di essi controlla in maniera esclusiva l’intero flusso metabolico e mostra un coefficiente di controllo di flusso pari a 1 per cui la somma dei coefficienti di tutti gli elementi del supercomplesso sarà maggiore di 1. In questa tesi sono riportati i risultati dell’analisi cinetica condotta su mitocondri di fegato di ratto (RLM) sia disaccoppiati, che accoppiati in condizioni fosforilanti (stato 3) e non fosforilanti (stato 4). L’analisi ha evidenziato l’associazione preferenziale del Complesso I e Complesso III sia in mitocondri disaccoppiati che accoppiati in stato 3 di respirazione. Quest’ultimo risultato permette per la prima volta di affermare che il supercomplesso I+III è presente anche in mitocondri integri capaci della fosforilazione ossidativa e che il trasferimento elettronico tra i due complessi possa effettivamente realizzarsi anche in condizioni fisiologiche, attraverso un fenomeno di channeling del Coenzima Q10. Sugli stessi campioni è stata eseguita anche un analisi strutturale mediante gel-elettroforesi (2D BN/SDS-PAGE) ed immunoblotting che, oltre a supportare i dati cinetici sullo stato di aggregazione dei complessi respiratori, ci ha permesso di evidenziare il ruolo del citocromo c nel supercomplesso, in particolare per il Complesso IV e di avviare uno studio comparativo esteso ai mitocondri di cuore bovino (BHM), di tubero di patata (POM) e di S. cerevisiae.
Resumo:
La ricerca impostata considera campi disciplinari specifici e distinti, verso la loro integrazione, mirando a produrre un avanzamento relativo alla scienza della voce attraverso la pratica e lo studio della sua applicazione in campo artistico. A partire dall’analisi delle teorie novecentesche relative alla fonazione nel mondo della scena (Antonin Artaud, Stanislavskij e altri) per giungere alle acquisizioni prodotte dalle terapie corporee e vocali (Tomatis, Lowen, Wilfart in particolare), Marco Galignano ha sviluppato un percorso originale che è passato inoltre attraverso lo studio della pratica di una serie di artisti contemporanei (tra cui Baliani, Belli, Bergonzoni, Jodorowski, Hera, Lucenti e Manfredini) e di pedagoghi e terapeuti (da Serge Wilfart al maestro Paolo Zedda). Galignano ha inoltre riferito, nel suo lavoro, gli esiti della sua personale esperienza di formatore, sviluppata a Bologna all’interno di diversi Dipartimenti dell’Università Alma Mater, del Conservatorio di Musica G.B. Martini, dell’Accademia di Belle Arti e del Teatro Duse in particolare. L’obiettivo della tesi è dunque quello di fondare le basi teoriche per una rinnovata pedagogia vocale, a partire dalla possibile riscoperta del suono naturale fino a giungere alle potenzialità terapeutiche ed artistiche del linguaggio. Gli obiettivi di questo lavoro contemplano l’istituzione di una nuova modalità pedagogica, la sua diffusione attraverso una presentazione opportunamente composta e la sua inscrizione in diverse occorrenze artistiche e professionali. Molte le personalità di spicco del panorama internazionale della scienza e dell’arte della voce che hanno contribuito, negli anni, alla presente ricerca: Francesca Della Monica, insegnante di canto e performer, Tiziana Fuschini, logopedista, Franco Fussi, foniatra, Silvia Magnani, foniatra ed esperta di teatro, Gianpaolo Mignardi, logopedista, Dimitri Pasquali, pedagogo, Livio Presutti, medico chirurgo otorinolaringoiatra, Simonetta Selva, medico dello sport, Serge Wilfart, terapeuta della voce, Paolo Zedda, professore di canto in diverse realtà e Maestro di dizione al Conservatorio Nazionale di Parigi, e molti altri, oltre agli artisti citati in fondo, con le loro ricerche hanno contribuito direttamente alla redazione dell’elaborato finale, che mira a fondare le basi di una rinnovata pedagogia vocale per il teatro in Italia. La ricerca vuole infatti colmare in parte la penuria di apporti scientifici specificamente rivolti alla formazione vocale dell’attore teatrale. II lavoro vorrebbe inoltre raccogliere l’eredita di quei teorici, maestri e registi-pedagoghi che nel Novecento hanno posto le basi per la formazione dell’attore, e al tempo stesso prolungare la linea genealogica che da Stanislavskji trascorre in Grotowski, senza escludere esperienze fondate su presupposti alternativi alla formazione del repertorio vocale del performer: psicofisicità, terapie olistiche, fisica quantistica. Come accennato, una parte della ricerca è stata condotta in collaborazione col Prof. Franco Fussi, correlatore, e grazie al lavoro di redazione nel gruppo della rivista Culture Teatrali, diretto da Marco De Marinis, relatore. II percorso ha inteso infatti sviluppare alcune delle linee di ricerca aperte da Fussi virandole verso lo specifico dell’attività e del training vocale dell’attore, e ha avuto una tappa di verifica rilevante nel Convegno Internazionale di Foniatria e Logopedia “La Voce Artistica” di cui Fussi è direttore, a cui Galignano ha partecipato in veste di relatore. 1. II concetto guida del lavoro di Galignano risiede nell’idea di vibrazione e nel rapporto che questa intrattiene col suono. Il suono, per l’essere umano, costituisce la base materiale della fonazione, del linguaggio codificato comunitariamente così come dei particolari idioletti in continua evoluzione, basi della comunicazione verbale e paraverbale. Il linguaggio umano è costituito principalmente da sonorità vocale e da articolazione consonantica (rumori), e cioè composto di suoni armonici e di rumori prodotti da apparati articolari del corpo che risultano efficaci solo se integrati nel corpo da cui originano. A partire da un tentativo di definizione di salute corporea e di equilibrio psicofisico, attraverso l’analisi della rigenerazione cellulare e delle dinamiche comportamentali, Galignano definisce scientificamente la lingua parlata come emersione di codici comunicativi che originano da una schematizzazione del mondo intimo-personale del soggetto e si fondano su memorie molecolari, sull’attitudine comportamentale abituale, tra spontaneità, automatismi e capacità episodica di attenzione psicofisica. Ciò costituisce, per Galignano, la “risonanza olistica” alla base dell’efficacia comunicativa in sede pedagogica. L’argomento, che verrà sviluppato per la presentazione editoriale dell’elaborato e di cui la tesi di dottorato è solo una prima tappa in fieri, è stato sviscerato anche sulla base di nozioni di fisica classica e di fisica quantistica. Ciò senza dimenticare gli studi approfonditi sulla vocalità in ambito filosofico, da Bologna a Cavarero, da Napolitano a Zumthor. La tesi è composta attraverso una progressione che, a partire da una dichiarazione di poetica, trascorre poi verso l’analisi della fisiologia e della psicologia della voce, per approdare a una zona di approfondimento scientifico, teorico ed empirico, di una serie di metodi d’avanguardia di abilitazione e riabilitazione. In ultimo, come appendice, vengono riferiti i risultati del percorso laboratoriale condotto nel corso degli anni del dottorato di ricerca. Le esperienze sul campo maturate nell’ambito dell’attività pedagogica e laboratoriale si sono inoltre sviluppate a partire da un Progetto Strategico d’Ateneo dell’Università di Bologna intitolato “La Voce nel Corpo. La Recitazione e il Movimento Coreografico”, di cui Marco Galignano è responsabile scientifico. Un tempo specifico della tesi di dottorato è dunque composto a partire dai risultati maturati attraverso le varie azioni, laboratoriali e artistiche, che fin qui il progetto “La Voce nel Corpo” ha prodotto. In definitiva, attraverso il tessuto composto da esperienze pedagogiche, pratica artistica e ricerca scientifica, la tesi di dottorato di Galignano, work in progress, mira a comporre un sistema integrato, teorico-pratico, per l’insegnamento e la trasmissione di una specifica tecnica vocale calata nella pratica attoriale, ma utile a fini ulteriori, da quello riabilitativo fino alle tecniche di cura del sé su cui s’e appuntata la riflessione filosofica erede della teoresi artaudiana. La parte conclusiva della ricerca riguarda i suoi possibili futuri sviluppi, specifici, impostati attraverso la collaborazione, attuale, passata o in divenire, con artisti quali Marco Baliani, Matteo Belli, Alessandro Bergonzoni, Albert Hera, Michela Lucenti, Danio Manfredini e altri a cui Marco Galignano è particolarmente riconoscente.
Resumo:
Questa tesi ricostruisce la storia della giurisprudenza italiana che ha riguardato la legittimità o meno dell’impiego della diagnosi genetica preimpianto nell’ambito della procreazione medicalmente assistita, dall’emanazione della legge 40 del 2004 a tutt’oggi. Ed in particolare questa tesi si prefigge due obiettivi: uno, individuare ed illustrare le tipologie di argomenti utilizzati dal giurista-interprete per giudicare della legittimità o meno della pratica della diagnosi preimpianto degli embrioni prodotti, mediante le tecniche relative alla procreazione assistita; l’altro obiettivo, mostrare sia lo scontro fra i differenti argomenti, sia le ragioni per le quali prevalgono gli argomenti usati per legittimare la pratica della diagnosi preimpianto. Per raggiungere questi obiettivi, e per mostrare in maniera fenomenologica come avviene l’interpretazione giuridica in materia di diagnosi preimpianto, si è fatto principalmente riferimento alla visione che ha della detta interpretazione la prospettiva ermeneutica (concepita originariamente sul piano teoretico, quale ermeneutica filosofica, da H.G. Gadamer; divulgata ed approfondita sul piano giusfilosofico e della teoria dell’interpretazione giudica in Italia, fra gli altri, da F. Viola e G. Zaccaria). Così, in considerazione dei vari argomenti utilizzati per valutare la legittimità o meno della pratica della diagnosi preimpianto, i motivi per i quali in ultimo il giurista-interprete per giudicare ragionevolmente, deve ritenere legittima la pratica della diagnosi preimpianto sono i seguenti. I principi superiori dell’ordinamento e talune direttive giuridiche fondamentali dell’ordinamento, elaborate della giurisprudenza, le quali costituiscono la concretizzazione di detti principi e di una serie di disposizioni normative fondamentali per disciplinare il fenomeno procreativo, depongono per la legittimità della diagnosi preimpianto. Le tipologie degli argomenti impiegati per avallare la legittimità della diagnosi preimpianto attengono al tradizionale repertorio argomentativo a cui attinge il giurista, mentre la stessa cosa non si può dire per gli argomenti usati per negare la legittimità della diagnosi. Talune tipologie di argomenti utilizzate per negare la legittimità della diagnosi preimpianto costituiscono delle fallacie logiche, per esempio l’argomento del pendio scivoloso, e soprattutto le tipologie degli argomenti utilizzati per sostenere la legittimità della diagnosi preimpianto sono per lo più caratterizzate dalla ragionevolezza ed applicate per lo più opportunamente. Poi, si può osservare che: determinati argomenti, associati dal giurista-interprete ai principi i quali depongono per l’illegittimità della diagnosi preimpianto, facendo leva sulla categoria della possibilità, ed equiparando attualità e possibilità, privilegiano l’immaginazione alla realtà e portano a risultati interpretativi non razionalmente fondati; mentre gli argomenti associati dal giurista-interprete ai principi i quali depongono per la legittimità della diagnosi preimpianto, facendo leva sulla categoria della attualità, e tenendo ben distinte attualità e possibilità, privilegiano l’osservazione della realtà e portano a risultati razionalmente fondati.
Resumo:
La mostra è diventata un nuovo paradigma della cultura contemporanea. Sostenuta da proprie regole e da una grammatica complessa produce storie e narrazioni. La presente ricerca di dottorato si struttura come un ragionamento critico sulle strategie del display contemporaneo, tentando di dimostrare, con strumenti investigativi eterogenei, assumendo fonti eclettiche e molteplici approcci disciplinari - dall'arte contemporanea, alla critica d'arte, la museologia, la sociologia, l'architettura e gli studi curatoriali - come il display sia un modello discorsivo di produzione culturale con cui il curatore si esprime. La storia delle esposizioni del XX secolo è piena di tentativi di cambiamento del rapporto tra lo sviluppo di pratiche artistiche e la sperimentazione di un nuovo concetto di mostra. Nei tardi anni Sessanta l’ingresso, nella scena dell’arte, dell’area del concettuale, demolisce, con un azzeramento radicale, tutte le convenzioni della rappresentazione artistica del dopoguerra, ‘teatralizzando’ il medium della mostra come strumento di potere e introducendo un nuovo “stile di presentazione” dei lavori, un display ‘dematerializzato” che rovescia le classiche relazioni tra opera, artista, spazio e istituzione, tra un curatore che sparisce (Siegelaub) e un curatore super-artista (Szeemann), nel superamento del concetto tradizionale di mostra stessa, in cui il lavoro del curatore, in quanto autore creativo, assumeva una propria autonomia strutturale all’interno del sistema dell’arte. Lo studio delle radici di questo cambiamento, ossia l’emergere di due tipi di autorialità: il curatore indipendente e l’artista che produce installazioni, tra il 1968 e il 1972 (le mostre di Siegelaub e Szeemann, la mimesi delle pratiche artistiche e curatoriali di Broodthaers e la tensione tra i due ruoli generata dalla Critica Istituzionale) permette di inquadrare teoricamente il fenomeno. Uno degli obbiettivi della ricerca è stato anche affrontare la letteratura critica attraverso una revisione/costruzione storiografica sul display e la storia delle teorie e pratiche curatoriali - formalizzata in modo non sistematico all'inizio degli anni Novanta, a partire da una rilettura retrospettiva della esperienze delle neoavanguardie – assumendo materiali e metodologie provenienti, come già dichiarato, da ambiti differenti, come richiedeva la composizione sfaccettata e non fissata dell’oggetto di studio, con un atteggiamento che si può definire comparato e post-disciplinare. Il primo capitolo affronta gli anni Sessanta, con la successione sistematica dei primi episodi sperimentali attraverso tre direzioni: l’emergere e l’affermarsi del curatore come autore, la proliferazione di mostre alternative che sovvertivano il formato tradizionale e le innovazioni prodotte dagli artisti organizzatori di mostre della Critica Istituzionale. Esponendo la smaterializzazione concettuale, Seth Siegelaub, gallerista, critico e impresario del concettuale, ha realizzato una serie di mostre innovative; Harald Szeemann crea la posizione indipendente di exhibition maker a partire When attitudes become forms fino al display anarchico di Documenta V; gli artisti organizzatori di mostre della Critica Istituzionale, soprattutto Marcel Broodhthears col suo Musée d’Art Moderne, Départment des Aigles, analizzano la struttura della logica espositiva come opera d’arte. Nel secondo capitolo l’indagine si sposta verso la scena attivista e alternativa americana degli anni Ottanta: Martha Rosler, le pratiche community-based di Group Material, Border Art Workshop/Taller de Arte Fronterizo, Guerrilla Girls, ACT UP, Art Workers' Coalition che, con proposte diverse elaborano un nuovo modello educativo e/o partecipativo di mostra, che diventa anche terreno del confronto sociale. La mostra era uno svincolo cruciale tra l’arte e le opere rese accessibili al pubblico, in particolare le narrazioni, le idee, le storie attivate, attraverso un originale ragionamento sulle implicazioni sociali del ruolo del curatore che suggeriva punti di vista alternativi usando un forum istituzionale. Ogni modalità di display stabiliva relazioni nuove tra artisti, istituzioni e audience generando abitudini e rituali diversi per guardare la mostra. Il potere assegnato all’esposizione, creava contesti e situazioni da agire, che rovesciavano i metodi e i formati culturali tradizionali. Per Group Material, così come nelle reading-room di Martha Rosler, la mostra temporanea era un medium con cui si ‘postulavano’ le strutture di rappresentazione e i modelli sociali attraverso cui, regole, situazioni e luoghi erano spesso sovvertiti. Si propongono come artisti che stanno ridefinendo il ruolo della curatela (significativamente scartano la parola ‘curatori’ e si propongono come ‘organizzatori’). La situazione cambia nel 1989 con la caduta del muro di Berlino. Oltre agli sconvolgimenti geopolitici, la fine della guerra fredda e dell’ideologia, l’apertura ai flussi e gli scambi conseguenti al crollo delle frontiere, i profondi e drammatici cambiamenti politici che coinvolgono l’Europa, corrispondono al parallelo mutamento degli scenari culturali e delle pratiche espositive. Nel terzo capitolo si parte dall’analisi del rapporto tra esposizioni e Late Capitalist Museum - secondo la definizione di Rosalind Krauss - con due mostre cruciali: Le Magiciens de la Terre, alle origini del dibattito postcoloniale e attraverso il soggetto ineffabile di un’esposizione: Les Immatériaux, entrambe al Pompidou. Proseguendo nell’analisi dell’ampio corpus di saggi, articoli, approfondimenti dedicati alle grandi manifestazioni internazionali, e allo studio dell’espansione globale delle Biennali, avviene un cambiamento cruciale a partire da Documenta X del 1997: l’inclusione di lavori di natura interdisciplinare e la persistente integrazione di elementi discorsivi (100 days/100 guests). Nella maggior parte degli interventi in materia di esposizioni su scala globale oggi, quello che viene implicitamente o esplicitamente messo in discussione è il limite del concetto e della forma tradizionale di mostra. La sfida delle pratiche contemporanee è non essere più conformi alle tre unità classiche della modernità: unità di tempo, di spazio e di narrazione. L’episodio più emblematico viene quindi indagato nel terzo capitolo: la Documenta X di Catherine David, il cui merito maggiore è stato quello di dichiarare la mostra come format ormai insufficiente a rappresentare le nuove istanze contemporanee. Le quali avrebbero richiesto - altrimenti - una pluralità di modelli, di spazi e di tempi eterogenei per poter divenire un dispositivo culturale all’altezza dei tempi. La David decostruisce lo spazio museale come luogo esclusivo dell’estetico: dalla mostra laboratorio alla mostra come archivio, l’evento si svolge nel museo ma anche nella città, con sottili interventi di dissimulazione urbana, nel catalogo e nella piattaforma dei 100 giorni di dibattito. Il quarto capitolo affronta l’ultima declinazione di questa sperimentazione espositiva: il fenomeno della proliferazione delle Biennali nei processi di globalizzazione culturale. Dalla prima mostra postcoloniale, la Documenta 11 di Okwui Enwezor e il modello delle Platforms trans-disciplinari, al dissolvimento dei ruoli in uno scenario post-szeemanniano con gli esperimenti curatoriali su larga scala di Sogni e conflitti, alla 50° Biennale di Venezia. Sono analizzati diversi modelli espositivi (la mostra-arcipelago di Edouard Glissant; il display in crescita di Zone of Urgency come estetizzazione del disordine metropolitano; il format relazionale e performativo di Utopia Station; il modello del bric à brac; la “Scuola” di Manifesta 6). Alcune Biennali sono state sorprendentemente autoriflessive e hanno consentito un coinvolgimento più analitico con questa particolare forma espressiva. Qual è l'impatto sulla storia e il dibattito dei sistemi espositivi? Conclusioni: Cos’è la mostra oggi? Uno spazio sotto controllo, uno spazio del conflitto e del dissenso, un modello educativo e/o partecipativo? Una piattaforma, un dispositivo, un archivio? Uno spazio di negoziazione col mercato o uno spazio di riflessione e trasformazione? L’arte del display: ipotesi critiche, prospettive e sviluppi recenti.
Resumo:
La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.
Resumo:
L’idea fondamentale da cui prende avvio la presente tesi di dottorato è che sia possibile parlare di una svolta nel modo di concettualizzare e implementare le politiche sociali, il cui fuoco diviene sempre più la costruzione di reti di partnership fra attori pubblici e privati, in cui una serie di soggetti sociali plurimi (stakeholders) attivano fra loro una riflessività relazionale. L’ipotesi generale della ricerca è che, dopo le politiche improntate a modelli statalisti e mercatisti, o un loro mix, nella politica sociale italiana emerga l’esigenza di una svolta riflessiva e relazionale, verso un modello societario, sussidiario e plurale, e che di fatto – specie a livello locale – stiano sorgendo molte iniziative in tal senso. Una delle idee più promettenti sembra essere la creazione di distretti sociali per far collaborare tra loro attori pubblici, privati e di Terzo settore al fine di creare forme innovative di servizi per la famiglia e la persona. La presente tesi si focalizza sul tentativo della Provincia di Trento di distrettualizzare le politiche per la famiglia. Tramite l’analisi del progetto “Trentino – Territorio Amico della Famiglia” e di una sua verticalizzazione, il Distretto Famiglia, si è studiato l’apporto delle partnership pubblico-privato nella formazione di strumenti innovativi di governance che possano determinare una svolta morfogenetica nell’elaborazione di politiche per la famiglia. Le conclusioni del lavoro, attraverso una comparazione tra esperienze territoriali, presentano la differenziazione delle partnership sociali, in base ad alcuni variabili (pluralità di attori, pluralità di risorse, shared project, capitale sociale, decision making, mutual action, logiche di lavoro relazionale, sussidiarietà). Le diverse modalità di gestione delle partnership (capacitante, professionale e generativa) sintetizzano i portati culturali, strutturali e personali coinvolti nelle singole costruzioni. Solo le partnership che interpretano il loro potenziale regolativo e promozionale secondo la riflessività relazionale tendono a generare beni comuni nel contesto sociale.
Resumo:
Il tema della ricerca ha riguardato preliminarmente la definizione di farmaco descritta nel d.lgs. n. 219 del 2006 (Codice dei farmaci per uso umano). Oltre al danno prodotto da farmaci, la ricerca ha approfondito anche la tutela ex ante ed ex post riguardante la produzione di dispositivi medici (Direttiva della Comunità Economica Europea n. 42 del 1993 e Direttiva della Comunità Economica Europea n. 374 del 1985). E’ stato necessario soffermarsi sull’analisi del concetto di precauzione per il quale nell’ambito di attività produttive, come quelle che cagionano inquinamento ambientale, o “pericolose per la salute umana” come quelle riguardanti la produzione di alimenti e farmaci, è necessario eliminare i rischi non conosciuti nella produzione di questi ultimi al fine di garantire una tutela completa della salute. L’analisi della Direttiva della Comunità Economica Europea n. 374 del 1985 nei suoi aspetti innovativi ha riguardato l’esame dei casi di danno da farmaco (Trib. Roma, 20 Giugno 2002, Trib. Roma 27 Giugno 1987, Trib. Milano 19 Novembre 1987, Cassazione Civile n. 6241 del 1987): profilo critico è quello riguardante la prova liberatoria, mentre l'art. 2050 prevede che «si debbano adottare tutte le misure necessarie per evitare il danno», l'art. 118, lett. e), c. cons.) prevede una serie di casi di esonero di responsabilità del produttore (tra cui il rischio di sviluppo). Dall'analisi emerge poi la necessità da parte del produttore di continuo utilizzo del duty to warn (Art. 117 del Codice del Consumo lett. A e B ): esso consiste nel dovere continuo di informazione del produttore tramite i suoi rappresentanti e il bugiardino presente nelle confezioni dei farmaci. Tale dovere è ancor più importante nel caso della farmacogenetica, infatti, al fine di evitare reazioni avverse nel bugiardino di alcuni farmaci verrà prescritta la necessità di effettuare un test genetico prima dell’assunzione.
Resumo:
Photovoltaic (PV) conversion is the direct production of electrical energy from sun without involving the emission of polluting substances. In order to be competitive with other energy sources, cost of the PV technology must be reduced ensuring adequate conversion efficiencies. These goals have motivated the interest of researchers in investigating advanced designs of crystalline silicon solar (c-Si) cells. Since lowering the cost of PV devices involves the reduction of the volume of semiconductor, an effective light trapping strategy aimed at increasing the photon absorption is required. Modeling of solar cells by electro-optical numerical simulation is helpful to predict the performance of future generations devices exhibiting advanced light-trapping schemes and to provide new and more specific guidelines to industry. The approaches to optical simulation commonly adopted for c-Si solar cells may lead to inaccurate results in case of thin film and nano-stuctured solar cells. On the other hand, rigorous solvers of Maxwell equations are really cpu- and memory-intensive. Recently, in optical simulation of solar cells, the RCWA method has gained relevance, providing a good trade-off between accuracy and computational resources requirement. This thesis is a contribution to the numerical simulation of advanced silicon solar cells by means of a state-of-the-art numerical 2-D/3-D device simulator, that has been successfully applied to the simulation of selective emitter and the rear point contact solar cells, for which the multi-dimensionality of the transport model is required in order to properly account for all physical competing mechanisms. In the second part of the thesis, the optical problems is discussed. Two novel and computationally efficient RCWA implementations for 2-D simulation domains as well as a third RCWA for 3-D structures based on an eigenvalues calculation approach have been presented. The proposed simulators have been validated in terms of accuracy, numerical convergence, computation time and correctness of results.
Resumo:
Can space and place foster child development, and in particular social competence and ecological literacy? If yes, how can space and place do that? This study shows that the answer to the first question is positive and then tries to explain the way space and place can make a difference. The thesis begins with the review of literature from different disciplines – child development and child psychology, education, environmental psychology, architecture and landscape architecture. Some bridges among such disciplines are created and in some cases the ideas from the different areas of research merge: thus, this is an interdisciplinary study. The interdisciplinary knowledge from these disciplines is translated into a range of design suggestions that can foster the development of social competence and ecological literacy. Using scientific knowledge from different disciplines is a way of introducing forms of evidence into the development of design criteria. However, the definition of design criteria also has to pass through the study of a series of school buildings and un-built projects: case studies can give a positive contribution to the criteria because examples and good practices can help “translating” the theoretical knowledge into design ideas and illustrations. To do that, the different case studies have to be assessed in relation to the various themes that emerged in the literature review. Finally, research by design can be used to help define the illustrated design criteria: based on all the background knowledge that has been built, the role of the architect is to provide a series of different design solutions that can give answers to the different “questions” emerged in the literature review.
Resumo:
Nell’ambito della presente tesi verrà descritto un approccio generalizzato per il controllo delle macchine elettriche trifasi; la prima parte è incentrata nello sviluppo di una metodologia di modellizzazione generale, ossia in grado di descrivere, da un punto di vista matematico, il comportamento di una generica macchina elettrica, che possa quindi includere in sé stessa tutte le caratteristiche salienti che possano caratterizzare ogni specifica tipologia di macchina elettrica. Il passo successivo è quello di realizzare un algoritmo di controllo per macchine elettriche che si poggi sulla teoria generalizzata e che utilizzi per il proprio funzionamento quelle grandezze offerte dal modello unico delle macchine elettriche. La tipologia di controllo che è stata utilizzata è quella che comunemente viene definita come controllo ad orientamento di campo (FOC), per la quale sono stati individuati degli accorgimenti atti a migliorarne le prestazioni dinamiche e di controllo della coppia erogata. Per concludere verrà presentata una serie di prove sperimentali con lo scopo di mettere in risalto alcuni aspetti cruciali nel controllo delle macchine elettriche mediante un algoritmo ad orientamento di campo e soprattutto di verificare l’attendibilità dell’approccio generalizzato alle macchine elettriche trifasi. I risultati sperimentali confermano quindi l’applicabilità del metodo a diverse tipologie di macchine (asincrone e sincrone) e sono stati verificate nelle condizioni operative più critiche: bassa velocità, alta velocità bassi carichi, dinamica lenta e dinamica veloce.
Resumo:
La trattazione cerca di delineare i confini teorici ed applicativi dell’istituto dell’interpretazione autentica, nella chiara consapevolezza che dietro tale tematica si celi il più complesso problema di una corretta delimitazione tra attività di legis-latio e attività di legis-executio. Il fenomeno delle leggi interpretative costituisce infatti nodo nevralgico e punto di intersezione di tre ambiti materiali distinti, ossia la teoria dell’interpretazione, la teoria delle fonti del diritto e la dottrina di matrice liberale della separazione dei poteri. All’interno del nostro ordinamento, nell’epoca più recente, si è assistito ad un aumento esponenziale di interventi legislativi interpretativi che, allo stato attuale, sono utilizzati per lo più come strumenti di legislazione ordinaria. Sotto questo profilo, il sempre più frequente ricorso alla fonte interpretativa può essere inquadrato nel più complesso fenomeno della “crisi della legge” i cui tradizionali requisiti di generalità, astrattezza ed irretroattività sono stati progressivamente abbandonati dal legislatore parallelamente con l’affermarsi dello Stato costituzionale. L’abuso dello strumento interpretativo da parte del legislatore, gravemente lesivo delle posizioni giuridiche soggettive, non è stato finora efficacemente contrastato all’interno dell’ordinamento nonostante l’elaborazione da parte della Corte costituzionale di una serie di limiti e requisiti di legittimità dell’esegesi legislativa. In tale prospettiva, diventano quindi di rilevanza fondamentale la ricerca e l’esame di strategie e rimedi, giurisdizionali ed istituzionali, tali da arginare l’“onnipotenza” del legislatore interprete. A seguito dell’analisi svolta, è maturata la consapevolezza delle potenzialità insite nella valorizzazione della giurisprudenza della Corte Edu, maggiormente incline a sanzionare l’abuso delle leggi interpretative.
Resumo:
Lo scopo di questa tesi è quello di valutare l'effetto della salinizzazione dei suoli sugli invertebrati edafici. Nell'ambito di questo obiettivo generale sono state effettuate due distinte attività di ricerca: una indagine sul campo e una serie di esperimenti di laboratorio. Lo studio sul campo è stato condotto nella Pineta di San Vitale (Ravenna, Italia). L'obiettivo specifico è stato quello di valutare la qualità biologica dei suoli attraverso l'analisi del popolamento dei microartropodi edafici, in relazione alla diversità del suolo e in particolare alla salinizzazione. La qualità biologica dei suoli è stata valutata mediante l'indice QBS-ar. La Pineta è stata campionata nella zona Est, più colpita da intrusione salina e nella zona Ovest dove questo fenomeno è meno evidente. I campionamenti sono stati effettuati in primavera ed estate. I risultati confermano che le caratteristiche chimico-fisiche si modificano in base al gradiente sommità dunali-depressioni interdunali. Per quanto riguarda il popolamento dei microartropodi alcune caratteristiche sono comuni alla maggior parte delle stazioni con lo stesso pedotipo. Non è stato evidenziato alcuno stress sui popolamenti attribuibule alla salinizzazione. Nel complesso, i valori di QBS-ar sono piuttosto elevati. Gli esperimenti di laboratorio sono stati finalizzata alla valutazione degli effetti combinati della salinità del suolo e della contaminazione da pesticidi (chlorpyrifos) sul lombrico Eisenia andrei. Nel complesso, i risultati indicano che effetti avversi sui lombrichi sono possibili a livelli di salinizzazione dei suoli ancora compatibili a concentrazioni di chlorpyrifos che sono piuttosto alte in confronto con i tipici risultati di campo, ma ancora compatibili con l'uso consigliato.