960 resultados para galassie,formazione,modelli,merging,collasso monolitico
Resumo:
La ricerca ha avuto come obiettivo l’analisi delle residenze lungo la rue Mallet-Stevens, a Parigi, realizzate da Robert Mallet-Stevens negli anni 1925-1930. Si tratta di un intervento pensato unitariamente, i cui dispositivi spaziali sono rivelatori tanto del concetto spazio-forma, quanto del processo d’ideazione dello stesso nell’ambito dei paradigmi gestaltici e compositivi della modernità. All’epoca la necessità di espressione e affermazione di un simile concetto si tradusse nell’interpretazione spaziale dalla scala dell’abitazione alla scala della città. Le residenze, realizzate nella zona di Auteuil (16 arrondissement), occupano l’area di una nuova lottizzazione, da cui il successivo nome dell’intervento: case su rue Mallet-Stevens. Il programma comprendeva cinque abitazioni, commissionate da artisti e ricchi borghesi, una piccola maison per il guardiano del confinante parco, e un progetto, mai realizzato che nella prima versione comprendeva due interventi: un hôtel particulier e un edificio per appartamenti. La rue Mallet-Stevens si costituì come frammento di città possibile, ove si manifestava un’idea di urbanità chiaramente ispirata al modello della città giardino e ai valori del vivere moderno. I volumi “stereometrici” sono la cifra dell’idea di spazio che, a quel punto della sua attività, Mallet-Stevens aveva maturato sia come architetto, sia come scenografo. La metodologia di analisi critica dell’oggetto architettonico adottata in questa ricerca, si è servita di una lettura incrociata del testo (l’oggetto architettonico), del paratesto (ciò che l’autore ha scritto di sé e della propria opera) e dell’intertesto, in altre parole l’insieme di quelle relazioni che possono ricondurre sia ad altre opere dello stesso autore, sia ai modelli cui l’architetto ha fatto riferimento. Il ridisegno bidimensionale e tridimensionale degli edifici della rue Mallet-Stevens ha costituito lo strumento fondamentale di analisi per la comprensione dei temi architettonici. Le conclusioni cui la ricerca è giunta mostrano come la posizione culturale di Mallet-Stevens si è arricchita di molteplici influenze creative, sulla scia di una consapevole e costante strategia di contaminazione. Mallet-Stevens, osservando i linguaggi a lui contemporanei, si appropriò della componente morfologica del progetto, privilegiandola rispetto a quella sintattica, per poi giungere ad una personalissima sintesi delle stesse.
Resumo:
Il percorso parte dall'analisi delle strategie della Teoria dei giochi, si sofferma sul concetto di razionalità nelle decisioni(economiche); continua con la descrizione del funzionamento del baratto in tempi antichi e le declinazioni che ha avuto(economie del dono, baratto muto); esamina la teoria del valore di Carl Menger, per poi allargare la visione alle teorie del valore enunciate dagli economisti dal XVIII secolo, anni in cui si iniziavano ad esaminare i meccanismi alla base degli scambi di mercato; si precisa il funzionamento del ciclo economico(non è eterno), la possibilità di crollo del sistema economico, le ripercussioni di questo sulla moneta(ricerca di sistemi economici alternativi). Nella seconda parte si analizzano i risultati delle più recenti simulazioni relative alla nascita della moneta e, non meno importante, al suo collasso.
Resumo:
Il presente lavoro di tesi riguarda la sintesi di nanopolveri allumina-zirconia, seguendo tre differenti metodologie (sintesi per coprecipitazione, sintesi con il metodo dei citrati, sintesi idrotermale assistita da microonde) e il trattamento termico (calcinazione) delle polveri ottenute, mediante tecniche di riscaldamento convenzionali ed alternative (microonde). Lo scopo del lavoro è consistito nell’individuare, tra le tecniche esaminate, quella più idonea e conveniente, per la preparazione di nanopolveri cristalline 95 mol% Al2O3 – 5 mol% ZrO2 e nell’esaminare gli effetti che la calcinazione condotta con le microonde, ha sulle caratteristiche finali delle polveri, rispetto ai trattamenti termici convenzionali. I risultati ottenuti al termine del lavoro hanno evidenziato che, tra le tecniche di sintesi esaminate, la sintesi idrotermale assistita da microonde, risulta il metodo più indicato e che, il trattamento termico eseguito con le microonde, risulta di gran lunga vantaggioso rispetto a quello convenzionale. La sintesi idrotermale assistita da microonde consente di ottenere polveri nano cristalline poco agglomerate, che possono essere facilmente disaggregate e con caratteristiche microstrutturali del tutto peculiari. L’utilizzo di tale tecnica permette, già dopo la sintesi a 200°C/2ore, di avere ossido di zirconio, mentre per ottenere gli ossidi di alluminio, è sufficiente un ulteriore trattamento termico a basse temperature e di breve durata (400°C/ 5 min). Si è osservato, inoltre, che il trattamento termico condotto con le microonde comporta la formazione delle fasi cristalline desiderate (ossidi di alluminio e zirconio), impiegando (come per la sintesi) tempi e temperature significativamente ridotti. L’esposizione delle polveri per tempi ridotti e a temperature più basse consente di evitare la formazione di aggregati duri nelle nanopolveri finali e di contrastare il manifestarsi di fenomeni di accrescimento di grani, preservando così la “nanostruttura” delle polveri e le sue caratteristiche proprietà.
Resumo:
L’integrazione multisensoriale è la capacità del sistema nervoso di utilizzare molteplici sorgenti sensoriali. Una tra le più studiate forme di integrazione è quella tra informazioni visive ed acustiche. La capacità di localizzare uno stimolo acustico nello spazio è un processo meno accurato ed affidabile della localizzazione visiva, di conseguenza, un segnale visivo è spesso in grado di “catturare” (ventriloquismo) o di incrementare (enhancement multisensoriale) la performance di localizzazione acustica. Numerose evidenze sperimentali hanno contribuito ad individuare i processi neurali e le aree cerebrali alla base dei fenomeni integrativi; in particolare, un importante contributo viene dallo studio su soggetti con lesioni cerebrali. Tuttavia molti aspetti sui possibili meccanismi coinvolti restano ancora da chiarire. Obiettivo di questa tesi è stato lo sviluppo di un modello matematico di rete neurale per fare luce sui meccanismi alla base dell’interazione visuo-acustica e dei suoi fenomeni di plasticità. In particolare, il modello sviluppato è in grado di riprodurre condizioni che si verificano in-vivo, replicando i fenomeni di ventriloquismo ed enhancement in diversi stati fisiopatologici e interpretandoli in termini di risposte neurali e reciproche interazione tra i neuroni. Oltre ad essere utile a migliorare la comprensione dei meccanismi e dei circuiti neurali coinvolti nell’integrazione multisensoriale, il modello può anche essere utile per simulare scenari nuovi, con la possibilità di effettuare predizioni da testare in successivi esperimenti.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
La Piccola e Media Impresa (PMI) ha costituito in Italia e all’estero un fenomeno che ha permesso un’importante crescita economica dal secondo dopoguerra in poi e tutt’oggi rappresenta quasi il 95% delle imprese italiane. L’ambiente di riferimento odierno è molto dinamico ed incerto e la competitività è più difficile da raggiungere a causa delle nuove e crescenti economie emergenti. A rendere l’ambiente competitivo più complesso si è aggiunta la crisi internazionale nata intorno al 2006 negli Stati Uniti e arrivata in Europa un paio di anni dopo, portando l’economia globale in un periodo di recessione. Tutto ciò ha reso necessario ripensare all’approccio delle imprese verso i mercati, soprattutto le PMI, applicando nuovi processi d’innovazione. Questi non dovranno limitarsi alla sola ricerca di nuovi prodotti ma cambiare anche l’impostazione manageriale in modo da avviare innovazioni di mercato. E qui che il tema dell’internazionalizzazione assume ancor più rilevanza diventando, in un periodo di crisi economica, un’importante opportunità di crescita per le PMI. Dagli anni ’70 in poi le imprese multinazionali (MNCs) erano quelle che operavano in più Paesi e Continenti estendendo il proprio business in tutto il mondo. Per le piccole e medie imprese era difficile immaginare nuovi business al di fuori dei confini territoriali per le difficoltà che un processo di internazionalizzazione richiedeva. Oggi, l’internazionalizzazione, è vista come una chance di sopravvivenza ed è spinta da diversi fattori. Questi non si limitano più alla sola ricerca di maggiori ricavi ed abbattimento dei costi ma anche “sourcing” di Know-how e tecnologie, diversificazione del rischio, partecipazione a segmenti di mercato diventati globali e sfruttamento delle opportunità offerte dai governi esteri. Con il seguente lavoro di tesi si vogliono studiare le modalità in cui si svolgono processi di internazionalizzazione e l’origine dell’impulso che induce le piccole e medie imprese ad intraprenderli. A questo proposito si sono fatte ricerche su database e riviste scientifiche volte alla raccolta e analisi dei principali articoli che la letteratura offre su i temi appena citati. Individuate le principali teorie e modelli queste sono confrontate con un caso empirico cercando i punti di contatto tra ciò che è emerso dall’analisi teorica e quella empirica. A tal proposito viene mostrato il caso dell’azienda Sinergia Sistemi S.p.A. in cui ho collaborato e avuto modo di compiere ricerche per un periodo di sei mesi. Il lavoro di tesi è pertanto strutturato in quattro capitoli. Nel primo capitolo è esposta l’analisi della letteratura scientifica andando ad individuare le principali teorie sui processi di internazionalizzazione. Attraverso quest’analisi sarà possibile avere un quadro di riferimento sui possibili processi di internazionalizzazione che le imprese possono intraprendere. Nel secondo capitolo si vuole comprendere come le imprese arrivino alla decisione di internazionalizzarsi e quali fattori, interni ed esterni all’impresa, influenzino tale scelta. Nel terzo capitolo viene esaminato il caso di Sinergia Sistemi S.p.A., società operante nel campo delle energie rinnovabili ed efficienza energetica. Dopo una prima parte che introduce l’azienda ed il mercato delle rinnovabili, sarà analizzata la situazione attuale dell’azienda nel suo processo di internazionalizzazione e la strategia delineata. Nell’ultimo capitolo si effettuerà un confronto tra ciò che la letteratura scientifica propone sui processi di internazionalizzazione ed il caso specifico esaminato. Si cercherà di trovare dei riscontri tra le varie teorie offerte dalla letteratura con la strategia seguita da Sinergia Sistemi. L’obiettivo generale di questo lavoro di tesi è confrontare teorie e modelli di internazionalizzazione con un caso empirico per comprendere l’esistenza di un riscontro con le aziende appartenenti ad un particolare settore, quello delle energie rinnovabili. Vedremo come le peculiarità di questo settore portino le imprese a dare molta rilevanza ai network che si vengono a formare nei vari Paesi più che alla ricerca di innovazioni di prodotto, che resta sempre fondamentale per la crescita. L’appartenenza ai giusti network può semplificare notevolmente il processo di internazionalizzazione, se non diventare perfino indispensabile.
Resumo:
Questa tesi si basa su una serie di lavori precedenti, volti ad analizzare la correlazione tra i modelli AUML e le reti di Petri, per riuscire a fornire una metodologia di traduzione dai primi alle seconde. Questa traduzione permetterà di applicare tecniche di model checking alle reti così create, al fine di stabilire le proprietà necessarie al sistema per poter essere realizzato effettivamente. Verrà poi discussa un'implementazione di tale algoritmo sviluppata in tuProlog ed un primo approccio al model checking utilizzando il programma Maude. Con piccole modifiche all'algoritmo utilizzato per la conversione dei diagrammi AUML in reti di Petri, è stato possibile, inoltre, realizzare un sistema di implementazione automatica dei protocolli precedentemente analizzati, verso due piattaforme per la realizzazione di sistemi multiagente: Jason e TuCSoN. Verranno quindi presentate tre implementazioni diverse: la prima per la piattaforma Jason, che utilizza degli agenti BDI per realizzare il protocollo di interazione; la seconda per la piattaforma TuCSoN, che utilizza il modello A&A per rendersi compatibile ad un ambiente distribuito, ma che ricalca la struttura dell'implementazione precedente; la terza ancora per TuCSoN, che sfrutta gli strumenti forniti dalle reazioni ReSpecT per generare degli artefatti in grado di fornire una infrastruttura in grado di garantire la realizzazione del protocollo di interazione agli agenti partecipanti. Infine, verranno discusse le caratteristiche di queste tre differenti implementazioni su un caso di studio reale, analizzandone i punti chiave.
Resumo:
Lo scopo della seguente trattazione, è quello di introdurre il concetto di efficienza energetica all’interno delle aziende, qualunque sia il loro campo d’applicazione. Per far ciò l’ISO ha emanato una nuova normativa a livello internazionale che ha il compito di aiutare le imprese ad implementare un corretto Sistema di Gestione dell’Energia. Dopo una breve introduzione sul panorama energetico nazionale, nel secondo capitolo verranno introdotte le due normative energetiche e verranno spiegate e commentate. Successivamente ci si concentrerà, a partire dal terzo capitolo, sulla grande distribuzione organizzata, la quale è stata analizzata come caso applicativo; in prima analisi verranno introdotti gli impianti presenti all’interno dei supermercati e che maggiormente impattano sul consumo energetico, in secondo analisi verranno analizzate alcune soluzioni che se correttamente implementate potrebbero portare miglioramenti in termini energetici ed economici all’interno delle GDO. Nell’ultimo capitolo si affronterà una vera e propria diagnosi energetica relativa ad un punto vendita nel quale è stato effettuato un sopralluogo per la raccolta dei dati e si analizzerà l’andamento dei consumi energetici e si introdurranno degli indici di performance appositamente pensati per un monitoraggio efficiente dei consumi energetici, infine si proporranno soluzioni espressamente pensate per il suddetto punto vendita. L’intero lavoro è stato svolto in collaborazione con una società di consulenza, la NIER Ingegneria; una società di servizi che ha come scopo la ricerca delle soluzioni più idonee a problemi di carattere prevalentemente organizzativo e tecnologico in riferimento ai settori ambiente, qualità, sicurezza, energia. Fondata nel 1977, il primo ambito lavorativo fu l’Energia: effettuò ricerche, realizzò simulazioni e banche dati, come la prima Banca Dati Metereologica italiana (su base oraria) e il calcolo dei gradi giorno per tutti i Comuni italiani. Caso raro in Italia, sono rimasti impegnati anche nel Nucleare occupandosi, prima, di sicurezza di reattori a fusione, poi di affidabilità e sicurezza della nuova macchina a fusione, l'ambizioso progetto internazionale Net/Iter. Negli anni '80, dal nucleare si sono allargati al settore dei Rischi e Incidenti rilevanti in campo industriale fornendo assistenza alle imprese e alla pubblica amministrazione e, successivamente, negli anni '90, alle attività di Analisi ambientali e di sicurezza con la produzione di piani di emergenza, manuali operativi, corsi di formazione e strategie di comunicazione ambientale. Infine, l’ Ambiente nelle sue molteplici articolazioni. Acqua, aria, suolo e sottosuolo sono stati oggetto di studi, ricerche e progetti svolti per Autorità Pubbliche, Enti di Ricerca e industrie nella direzione di uno sviluppo durevole e sostenibile. In ambito energetico si occupano di • Diagnosi e certificazioni energetiche • ISO 50001:2011 - Sistema di gestione per l'energia • Piani energetici ambientali • Simulazioni dinamiche di edifici ed impianti • Energie rinnovabili • Risparmio energetico • Attività di ricerca
Resumo:
La ricerca impostata considera campi disciplinari specifici e distinti, verso la loro integrazione, mirando a produrre un avanzamento relativo alla scienza della voce attraverso la pratica e lo studio della sua applicazione in campo artistico. A partire dall’analisi delle teorie novecentesche relative alla fonazione nel mondo della scena (Antonin Artaud, Stanislavskij e altri) per giungere alle acquisizioni prodotte dalle terapie corporee e vocali (Tomatis, Lowen, Wilfart in particolare), Marco Galignano ha sviluppato un percorso originale che è passato inoltre attraverso lo studio della pratica di una serie di artisti contemporanei (tra cui Baliani, Belli, Bergonzoni, Jodorowski, Hera, Lucenti e Manfredini) e di pedagoghi e terapeuti (da Serge Wilfart al maestro Paolo Zedda). Galignano ha inoltre riferito, nel suo lavoro, gli esiti della sua personale esperienza di formatore, sviluppata a Bologna all’interno di diversi Dipartimenti dell’Università Alma Mater, del Conservatorio di Musica G.B. Martini, dell’Accademia di Belle Arti e del Teatro Duse in particolare. L’obiettivo della tesi è dunque quello di fondare le basi teoriche per una rinnovata pedagogia vocale, a partire dalla possibile riscoperta del suono naturale fino a giungere alle potenzialità terapeutiche ed artistiche del linguaggio. Gli obiettivi di questo lavoro contemplano l’istituzione di una nuova modalità pedagogica, la sua diffusione attraverso una presentazione opportunamente composta e la sua inscrizione in diverse occorrenze artistiche e professionali. Molte le personalità di spicco del panorama internazionale della scienza e dell’arte della voce che hanno contribuito, negli anni, alla presente ricerca: Francesca Della Monica, insegnante di canto e performer, Tiziana Fuschini, logopedista, Franco Fussi, foniatra, Silvia Magnani, foniatra ed esperta di teatro, Gianpaolo Mignardi, logopedista, Dimitri Pasquali, pedagogo, Livio Presutti, medico chirurgo otorinolaringoiatra, Simonetta Selva, medico dello sport, Serge Wilfart, terapeuta della voce, Paolo Zedda, professore di canto in diverse realtà e Maestro di dizione al Conservatorio Nazionale di Parigi, e molti altri, oltre agli artisti citati in fondo, con le loro ricerche hanno contribuito direttamente alla redazione dell’elaborato finale, che mira a fondare le basi di una rinnovata pedagogia vocale per il teatro in Italia. La ricerca vuole infatti colmare in parte la penuria di apporti scientifici specificamente rivolti alla formazione vocale dell’attore teatrale. II lavoro vorrebbe inoltre raccogliere l’eredita di quei teorici, maestri e registi-pedagoghi che nel Novecento hanno posto le basi per la formazione dell’attore, e al tempo stesso prolungare la linea genealogica che da Stanislavskji trascorre in Grotowski, senza escludere esperienze fondate su presupposti alternativi alla formazione del repertorio vocale del performer: psicofisicità, terapie olistiche, fisica quantistica. Come accennato, una parte della ricerca è stata condotta in collaborazione col Prof. Franco Fussi, correlatore, e grazie al lavoro di redazione nel gruppo della rivista Culture Teatrali, diretto da Marco De Marinis, relatore. II percorso ha inteso infatti sviluppare alcune delle linee di ricerca aperte da Fussi virandole verso lo specifico dell’attività e del training vocale dell’attore, e ha avuto una tappa di verifica rilevante nel Convegno Internazionale di Foniatria e Logopedia “La Voce Artistica” di cui Fussi è direttore, a cui Galignano ha partecipato in veste di relatore. 1. II concetto guida del lavoro di Galignano risiede nell’idea di vibrazione e nel rapporto che questa intrattiene col suono. Il suono, per l’essere umano, costituisce la base materiale della fonazione, del linguaggio codificato comunitariamente così come dei particolari idioletti in continua evoluzione, basi della comunicazione verbale e paraverbale. Il linguaggio umano è costituito principalmente da sonorità vocale e da articolazione consonantica (rumori), e cioè composto di suoni armonici e di rumori prodotti da apparati articolari del corpo che risultano efficaci solo se integrati nel corpo da cui originano. A partire da un tentativo di definizione di salute corporea e di equilibrio psicofisico, attraverso l’analisi della rigenerazione cellulare e delle dinamiche comportamentali, Galignano definisce scientificamente la lingua parlata come emersione di codici comunicativi che originano da una schematizzazione del mondo intimo-personale del soggetto e si fondano su memorie molecolari, sull’attitudine comportamentale abituale, tra spontaneità, automatismi e capacità episodica di attenzione psicofisica. Ciò costituisce, per Galignano, la “risonanza olistica” alla base dell’efficacia comunicativa in sede pedagogica. L’argomento, che verrà sviluppato per la presentazione editoriale dell’elaborato e di cui la tesi di dottorato è solo una prima tappa in fieri, è stato sviscerato anche sulla base di nozioni di fisica classica e di fisica quantistica. Ciò senza dimenticare gli studi approfonditi sulla vocalità in ambito filosofico, da Bologna a Cavarero, da Napolitano a Zumthor. La tesi è composta attraverso una progressione che, a partire da una dichiarazione di poetica, trascorre poi verso l’analisi della fisiologia e della psicologia della voce, per approdare a una zona di approfondimento scientifico, teorico ed empirico, di una serie di metodi d’avanguardia di abilitazione e riabilitazione. In ultimo, come appendice, vengono riferiti i risultati del percorso laboratoriale condotto nel corso degli anni del dottorato di ricerca. Le esperienze sul campo maturate nell’ambito dell’attività pedagogica e laboratoriale si sono inoltre sviluppate a partire da un Progetto Strategico d’Ateneo dell’Università di Bologna intitolato “La Voce nel Corpo. La Recitazione e il Movimento Coreografico”, di cui Marco Galignano è responsabile scientifico. Un tempo specifico della tesi di dottorato è dunque composto a partire dai risultati maturati attraverso le varie azioni, laboratoriali e artistiche, che fin qui il progetto “La Voce nel Corpo” ha prodotto. In definitiva, attraverso il tessuto composto da esperienze pedagogiche, pratica artistica e ricerca scientifica, la tesi di dottorato di Galignano, work in progress, mira a comporre un sistema integrato, teorico-pratico, per l’insegnamento e la trasmissione di una specifica tecnica vocale calata nella pratica attoriale, ma utile a fini ulteriori, da quello riabilitativo fino alle tecniche di cura del sé su cui s’e appuntata la riflessione filosofica erede della teoresi artaudiana. La parte conclusiva della ricerca riguarda i suoi possibili futuri sviluppi, specifici, impostati attraverso la collaborazione, attuale, passata o in divenire, con artisti quali Marco Baliani, Matteo Belli, Alessandro Bergonzoni, Albert Hera, Michela Lucenti, Danio Manfredini e altri a cui Marco Galignano è particolarmente riconoscente.
Resumo:
Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.
Resumo:
Il presente lavoro presenta una analisi di sensitività sui parametri progettuali più significativi per i sistemi di ancoraggio di dispositivi di produzione di energia del mare di tipo galleggiante, comunemente conosciuti come Floating Wave Energy Converters (F-WEC). I convertitori di questo tipo sono installati offshore e possono basarsi su diversi principi di funzionamento per la produzione di energia: lo sfruttamento del moto oscillatorio dell’onda (chiamati Wave Active Bodies, gran parte di convertitori appartengono la tecnologia di questo tipo), la tracimazione delle onde (Overtopping Devices), o il principio della colonna d’acqua oscillante (Oscillating Water Columns). La scelta del luogo di installazione dei tali dispositivi implica una adeguata progettazione del sistema di ancoraggio che ha lo scopo di mantenere il dispositivo in un intorno sufficientemente piccolo del punto dove è stato originariamente collocato. Allo stesso tempo, dovrebbero considerarsi come elemento integrato del sistema da progettare al fine di aumentare l’efficienza d’estrazione della potenza d’onda. Le problematiche principali relativi ai sistemi di ancoraggio sono: la resistenza del sistema (affidabilità, fatica) e l’economicità. Le due problematiche sono legate tra di loro in quanto dall’aumento del resistenza dipende l’aumento della complessità del sistema di ancoraggio (aumentano il numero delle linee, si utilizzano diametri maggiori, aumenta il peso per unità di lunghezza per ogni linea, ecc.). E’ però chiaro che sistemi più affidabili consentirebbero di abbassare i costi di produzione e renderebbero certamente più competitiva l’energia da onda sul mercato energetico. I dispositivi individuali richiedono approcci progettuali diversi e l’economia di un sistema di ormeggio è strettamente legata al design del dispositivo stesso. Esistono, ad oggi, una serie di installazioni a scala quasi di prototipo di sistemi WEC che hanno fallito a causa del collasso per proprio sistema di ancoraggio, attirando così l’attenzione sul problema di una progettazione efficiente, affidabile e sicura.
Resumo:
La distorsione della percezione della distanza tra due stimoli puntuali applicati sulla superfice della pelle di diverse regioni corporee è conosciuta come Illusione di Weber. Questa illusione è stata osservata, e verificata, in molti esperimenti in cui ai soggetti era chiesto di giudicare la distanza tra due stimoli applicati sulla superficie della pelle di differenti parti corporee. Da tali esperimenti si è dedotto che una stessa distanza tra gli stimoli è giudicata differentemente per diverse regioni corporee. Il concetto secondo cui la distanza sulla pelle è spesso percepita in maniera alterata è ampiamente condiviso, ma i meccanismi neurali che manovrano questa illusione sono, allo stesso tempo, ancora ampiamente sconosciuti. In particolare, non è ancora chiaro come sia interpretata la distanza tra due stimoli puntuali simultanei, e quali aree celebrali siano coinvolte in questa elaborazione. L’illusione di Weber può essere spiegata, in parte, considerando la differenza in termini di densità meccano-recettoriale delle differenti regioni corporee, e l’immagine distorta del nostro corpo che risiede nella Corteccia Primaria Somato-Sensoriale (homunculus). Tuttavia, questi meccanismi sembrano non sufficienti a spiegare il fenomeno osservato: infatti, secondo i risultati derivanti da 100 anni di sperimentazioni, le distorsioni effettive nel giudizio delle distanze sono molto più piccole rispetto alle distorsioni che la Corteccia Primaria suggerisce. In altre parole, l’illusione osservata negli esperimenti tattili è molto più piccola rispetto all’effetto prodotto dalla differente densità recettoriale che affligge le diverse parti del corpo, o dall’estensione corticale. Ciò, ha portato a ipotizzare che la percezione della distanza tattile richieda la presenza di un’ulteriore area celebrale, e di ulteriori meccanismi che operino allo scopo di ridimensionare – almeno parzialmente – le informazioni derivanti dalla corteccia primaria, in modo da mantenere una certa costanza nella percezione della distanza tattile lungo la superfice corporea. E’ stata così proposta la presenza di una sorta di “processo di ridimensionamento”, chiamato “Rescaling Process” che opera per ridurre questa illusione verso una percezione più verosimile. Il verificarsi di questo processo è sostenuto da molti ricercatori in ambito neuro scientifico; in particolare, dal Dr. Matthew Longo, neuro scienziato del Department of Psychological Sciences (Birkbeck University of London), le cui ricerche sulla percezione della distanza tattile e sulla rappresentazione corporea sembrano confermare questa ipotesi. Tuttavia, i meccanismi neurali, e i circuiti che stanno alla base di questo potenziale “Rescaling Process” sono ancora ampiamente sconosciuti. Lo scopo di questa tesi è stato quello di chiarire la possibile organizzazione della rete, e i meccanismi neurali che scatenano l’illusione di Weber e il “Rescaling Process”, usando un modello di rete neurale. La maggior parte del lavoro è stata svolta nel Dipartimento di Scienze Psicologiche della Birkbeck University of London, sotto la supervisione del Dott. M. Longo, il quale ha contribuito principalmente all’interpretazione dei risultati del modello, dando suggerimenti sull’elaborazione dei risultati in modo da ottenere un’informazione più chiara; inoltre egli ha fornito utili direttive per la validazione dei risultati durante l’implementazione di test statistici. Per replicare l’illusione di Weber ed il “Rescaling Proess”, la rete neurale è stata organizzata con due strati principali di neuroni corrispondenti a due differenti aree funzionali corticali: • Primo strato di neuroni (il quale dà il via ad una prima elaborazione degli stimoli esterni): questo strato può essere pensato come parte della Corteccia Primaria Somato-Sensoriale affetta da Magnificazione Corticale (homunculus). • Secondo strato di neuroni (successiva elaborazione delle informazioni provenienti dal primo strato): questo strato può rappresentare un’Area Corticale più elevata coinvolta nell’implementazione del “Rescaling Process”. Le reti neurali sono state costruite includendo connessioni sinaptiche all’interno di ogni strato (Sinapsi Laterali), e connessioni sinaptiche tra i due strati neurali (Sinapsi Feed-Forward), assumendo inoltre che l’attività di ogni neurone dipenda dal suo input attraverso una relazione sigmoidale statica, cosi come da una dinamica del primo ordine. In particolare, usando la struttura appena descritta, sono state implementate due differenti reti neurali, per due differenti regioni corporee (per esempio, Mano e Braccio), caratterizzate da differente risoluzione tattile e differente Magnificazione Corticale, in modo da replicare l’Illusione di Weber ed il “Rescaling Process”. Questi modelli possono aiutare a comprendere il meccanismo dell’illusione di Weber e dare così una possibile spiegazione al “Rescaling Process”. Inoltre, le reti neurali implementate forniscono un valido contributo per la comprensione della strategia adottata dal cervello nell’interpretazione della distanza sulla superficie della pelle. Oltre allo scopo di comprensione, tali modelli potrebbero essere impiegati altresì per formulare predizioni che potranno poi essere verificate in seguito, in vivo, su soggetti reali attraverso esperimenti di percezione tattile. E’ importante sottolineare che i modelli implementati sono da considerarsi prettamente come modelli funzionali e non intendono replicare dettagli fisiologici ed anatomici. I principali risultati ottenuti tramite questi modelli sono la riproduzione del fenomeno della “Weber’s Illusion” per due differenti regioni corporee, Mano e Braccio, come riportato nei tanti articoli riguardanti le illusioni tattili (per esempio “The perception of distance and location for dual tactile pressures” di Barry G. Green). L’illusione di Weber è stata registrata attraverso l’output delle reti neurali, e poi rappresentata graficamente, cercando di spiegare le ragioni di tali risultati.
Il pensiero politico internazionale di Montesquieu: tra la geopolitica e le relazioni internazionali
Resumo:
La tesi ha mostrato come il pensiero politico di Montesquieu possa costituire un utile riferimento teorico per affrontare il problema della ricontestualizzazione dello studio delle relazioni internazionali. La prima parte del lavoro evidenzia alcuni aspetti del metodo di ricerca e del pensiero politico di Montesquieu. Nel primo capitolo, è stato identificato un metodo di ricerca ed un approccio sociologico nello studio della politica, che rappresenta un precedente rispetto alla fondazione di una scienza politica che si propone di identificare nessi causali tra i fenomeni politici. In particolare, si deve riconoscere a Montesquieu il merito di aver introdotto un tipo di analisi della politica che consideri l’interazione di più fattori tra loro. La complessità del reale può essere spiegata soltanto identificando i rapporti che si formano tra gli elementi della realtà. Quindi è possibile porre dei principi in grado di produrre un ordine conoscibile ed interpretabile di tutti questi elementi. Nel secondo capitolo è stata presentata un’analisi delle tipologie delle forme di governo e del concetto di libertà politica. Questo capitolo ha evidenziato solo alcuni aspetti del pensiero politico di Montesquieu utili alla comprensione del pensiero politico internazionale. In particolare, è stata analizzata la struttura e il ressort di ogni forma di governo sottolineando gli aspetti di corruzione e i relativi processi di mutamento. La seconda parte del lavoro ha affrontato l’analisi di un pensiero politico internazionale ed ha evidenziato la rilevanza di una riflessione geopolitica. Nel terzo capitolo abbiamo mostrato l’emersione di una riflessione su alcuni argomenti di relazioni internazionali, quali il problema della guerra e della pace, il diritto internazionale e l’interdipendenza economica, legandoli alle forme di governo. Quindi sono stati identificati ed analizzati tre modelli di sistema internazionale sottolineando in particolare il nesso con il concetto di società internazionale. Tra questi modelli di sistema internazionale, quello che presenta le caratteristiche più singolari, è certamente il sistema della federazione di repubbliche. Infine, nell’ultimo capitolo, abbiamo evidenziato l’importanza della rappresentazione spaziale del mondo di Montesquieu e l’uso di categorie concettuali e metodi di analisi della geopolitica. In particolare, è stata rilevata l’importanza dell’aspetto dimensionale per la comprensione delle dinamiche di ascesa e declino delle forme di Stato e delle forme di governo. Si è mostrato come non sia possibile ascrivere il pensiero di Montesquieu nella categoria del determinismo geografico o climatico. Al contrario, abbiamo evidenziato come tale pensiero possa essere considerato un precedente di una corrente di pensiero della geopolitica francese definita “possibilismo”. Secondo questa teoria i fattori ambientali, più che esercitare un’azione diretta sul comportamento dell’uomo, agiscono selezionando il campo delle scelte possibili.
Resumo:
Inizialmente teorizzato a partire dall’osservazione degli animali negli studi di etologia di fine Ottocento, il mimetismo si è sviluppato come tekné in una interessante sinergia fra pratica artistica e necessità militare in occasione dei due conflitti mondiali. Attraverso una lettura critica dei testi di Roger Caillois e di Georges Bataille, questa ricerca posiziona il mimetismo nell’ambito della teoria della antivisione e lo inserisce all’interno del discorso anti-oculocentrico che scorre nei canali sotterranei dell’arte del Novecento. Il mimetismo destabilizza il dogma modernista della visualità pura operando un oltrepassamento dei confini identitari e il collasso della logica binaria dell’estetica occidentale fondata sulla opposizione fra soggetto e oggetto, interiorità ed esteriorità, corpo e ambiente. Articolato in tre diverse declinazioni del fare artistico - il paradigma spaziale, il paradigma aptico e il paradigma performativo – il mimetismo veicola un tipo di “presenza” che mette in gioco il corpo ed il contesto extracorporeo in un recupero estetico del valore fenomenologico dell’essere al mondo.