882 resultados para Aderenza Modelli Pseudoslittamenti Translohr Metropolitane Monorotaie
Resumo:
La ricerca ha avuto come obiettivo l’analisi delle residenze lungo la rue Mallet-Stevens, a Parigi, realizzate da Robert Mallet-Stevens negli anni 1925-1930. Si tratta di un intervento pensato unitariamente, i cui dispositivi spaziali sono rivelatori tanto del concetto spazio-forma, quanto del processo d’ideazione dello stesso nell’ambito dei paradigmi gestaltici e compositivi della modernità. All’epoca la necessità di espressione e affermazione di un simile concetto si tradusse nell’interpretazione spaziale dalla scala dell’abitazione alla scala della città. Le residenze, realizzate nella zona di Auteuil (16 arrondissement), occupano l’area di una nuova lottizzazione, da cui il successivo nome dell’intervento: case su rue Mallet-Stevens. Il programma comprendeva cinque abitazioni, commissionate da artisti e ricchi borghesi, una piccola maison per il guardiano del confinante parco, e un progetto, mai realizzato che nella prima versione comprendeva due interventi: un hôtel particulier e un edificio per appartamenti. La rue Mallet-Stevens si costituì come frammento di città possibile, ove si manifestava un’idea di urbanità chiaramente ispirata al modello della città giardino e ai valori del vivere moderno. I volumi “stereometrici” sono la cifra dell’idea di spazio che, a quel punto della sua attività, Mallet-Stevens aveva maturato sia come architetto, sia come scenografo. La metodologia di analisi critica dell’oggetto architettonico adottata in questa ricerca, si è servita di una lettura incrociata del testo (l’oggetto architettonico), del paratesto (ciò che l’autore ha scritto di sé e della propria opera) e dell’intertesto, in altre parole l’insieme di quelle relazioni che possono ricondurre sia ad altre opere dello stesso autore, sia ai modelli cui l’architetto ha fatto riferimento. Il ridisegno bidimensionale e tridimensionale degli edifici della rue Mallet-Stevens ha costituito lo strumento fondamentale di analisi per la comprensione dei temi architettonici. Le conclusioni cui la ricerca è giunta mostrano come la posizione culturale di Mallet-Stevens si è arricchita di molteplici influenze creative, sulla scia di una consapevole e costante strategia di contaminazione. Mallet-Stevens, osservando i linguaggi a lui contemporanei, si appropriò della componente morfologica del progetto, privilegiandola rispetto a quella sintattica, per poi giungere ad una personalissima sintesi delle stesse.
Resumo:
L’integrazione multisensoriale è la capacità del sistema nervoso di utilizzare molteplici sorgenti sensoriali. Una tra le più studiate forme di integrazione è quella tra informazioni visive ed acustiche. La capacità di localizzare uno stimolo acustico nello spazio è un processo meno accurato ed affidabile della localizzazione visiva, di conseguenza, un segnale visivo è spesso in grado di “catturare” (ventriloquismo) o di incrementare (enhancement multisensoriale) la performance di localizzazione acustica. Numerose evidenze sperimentali hanno contribuito ad individuare i processi neurali e le aree cerebrali alla base dei fenomeni integrativi; in particolare, un importante contributo viene dallo studio su soggetti con lesioni cerebrali. Tuttavia molti aspetti sui possibili meccanismi coinvolti restano ancora da chiarire. Obiettivo di questa tesi è stato lo sviluppo di un modello matematico di rete neurale per fare luce sui meccanismi alla base dell’interazione visuo-acustica e dei suoi fenomeni di plasticità. In particolare, il modello sviluppato è in grado di riprodurre condizioni che si verificano in-vivo, replicando i fenomeni di ventriloquismo ed enhancement in diversi stati fisiopatologici e interpretandoli in termini di risposte neurali e reciproche interazione tra i neuroni. Oltre ad essere utile a migliorare la comprensione dei meccanismi e dei circuiti neurali coinvolti nell’integrazione multisensoriale, il modello può anche essere utile per simulare scenari nuovi, con la possibilità di effettuare predizioni da testare in successivi esperimenti.
Resumo:
Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.
Resumo:
Nonostante negli ultimi anni si sia verificato un generale abbassamento degli infortuni sul lavoro, si rileva che gli incidenti legati alle esplosioni sono rimasti pressoché stazionari. Questo indica la necessità, sia di una maggiore aderenza delle soluzioni di limitazione dei rischi adottate, alle direttive nazionali ed europee pur introdotte in campo legislativo, sia – soprattutto – di asseverare processi di valutazione dei rischi medesimi, caso per caso presentati dalle differenti realtà produttive. Nel lavoro qui presentato si è proceduto, quindi, dopo un'introduzione sulle dinamiche dei fenomeni fisico-chimici che portano all’esplosione, a proporre ed illustrare una metodologia di analisi ed adeguamento alle principali normative in materia di ATEX, ovvero alle Direttive europee di riferimento e alle norme tecniche CEI specialistiche mediante un approccio classico di analisi del rischio. Fine ultimo di tale metodologia sarà la definizione del livello di riduzione del rischio ottenuto grazie all’adeguamento alle predette Direttive. Preliminarmente viene definita una procedura di ottimizzazione per l’individuazione e classificazione le sorgenti di emissione, sia di gas e vapori, che di polveri. Analogo ragionamento viene, poi, condotto per le principali fonti d’innesco delle nubi. Utilizzando opportuni software nel continuo si definisce il livello di rischio pre-adeguamento, le aree di maggiore criticità (in cui procedere agli interventi di prevenzione e protezione, materiali e organizzativi) e il livello di rischio residuo post-adeguamento. La metodologia è stata applicata al caso reale di un impianto per la distillazione dell’etanolo.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
I viaggi e gli studi compiuti in Croazia, Montenegro e Bosnia Erzegovina in occasione della Tesi di Laurea hanno costituito l’occasione per comprendere quanto sia consistente il retaggio di Roma antica sulla sponda orientale dell’Adriatico. Nello stesso tempo si è potuto constatare che, per diversi motivi, dal punto di vista prettamente scientifico, la ricchezza di questo patrimonio archeologico aveva sino allora trovato soltanto poche occasioni di studio. Da qui la necessità di provvedere a un quadro completo e generale relativo alla presenza romana in un territorio come quello della provincia romana di Dalmatia che, pur considerando la sua molteplicità geografica, etnica, economica, culturale, sociale e politica, ha trovato, grazie all’intervento di Roma, una sua dimensione unitaria, un comune denominatore, tanto da farne una provincia che ebbe un ruolo fondamentale nella storia dell’Impero. Il lavoro prende le mosse da una considerazione preliminare e generale, che ne costituisce quasi lo spunto metodologico più determinante: la trasmissione della cultura e dei modelli di vita da parte di Roma alle altre popolazioni ha creato un modello in virtù del quale l’imperialismo romano si è in certo modo adattato alle diverse culture incontrate ed assimilate, dando vita ad una rete di culture unite da elementi comuni, ma anche profondamente diversificate per sintesi originali. Quella che pare essere la chiave di lettura impiegata è la struttura di un impero a forma di “rete” con forti elementi di coesione, ma allo stesso tempo dotato di ampi margini di autonomia. E questo a cominciare dall’analisi dei fattori che aprirono il cammino dell’afflusso romano in Dalmatia e nello stesso tempo permisero i contatti con il territorio italico. La ricerca ne analizza quindi i fattori:il diretto controllo militare, la costruzione di una rete viaria, l’estensione della cittadinanza romana, lo sviluppo della vita locale attraverso la formazione di una rete di municipi, i contatti economici e l’immigrazione di genti romanizzate. L’analisi ha posto in evidenza una provincia caratterizzata da notevoli contraddizioni, che ne condizionarono – presso entrambi i versanti del Velebit e delle Alpi Dinariche – lo sviluppo economico, sociale, culturale e urbanistico. Le profonde differenze strutturali tra questi due territori rimasero sempre presenti: la zona costiera divenne, sotto tutti i punti di vista, una sorta di continuazione dell’Italia, mntre quella continentale non progredì di pari passo. Eppure l’influenza romana si diffuse anche in questa, così che essa si pote conformare, in una certa misura, alla zona litoranea. Come si può dedurre dal fatto che il severo controllo militare divenne superfluo e che anche questa regione fu dotata progressivamente di centri amministrati da un gruppo dirigente compiutamente integrato nella cultura romana. Oltre all’analisi di tutto ciò che rientra nel processo di acculturazione dei nuovi territori, l’obiettivo principale del lavoro è l’analisi di uno degli elementi più importanti che la dominazione romana apportò nei territori conquistati, ovvero la creazione di città. In questo ambito relativamente periferico dell’Impero, qual è il territorio della provincia romana della Dalmatia, è stato dunque possibile analizzare le modalità di creazione di nuovi centri e di adattamento, da parte di Roma, ai caratteri locali dell’insediamento, nonché ai condizionamenti ambientali, evidenziando analogie e differenze tra le città fondate. Prima dell’avvento di Roma, nessuna delle regioni entrate a far parte dei territori della Dalmatia romana, con la sola eccezione della Liburnia, diede origine a centri di vero e proprio potere politico-economico, come ad esempio le città greche del Mediterraneo orientale, tali da continuare un loro sviluppo all’interno della provincia romana. In altri termini: non si hanno testimonianze di insediamenti autoctoni importanti che si siano trasformati in città sul modello dei centri provinciali romani, senza aver subito cambiamenti radicali quali una nuova pianificazione urbana o una riorganizzazione del modello di vita locale. Questo non significa che la struttura politico-sociale delle diverse tribù sia stata cambiata in modo drastico: almeno nelle modeste “città” autoctone, nelle quali le famiglie appaiono con la cittadinanza romana, assieme agli ordinamenti del diritto municipale, esse semplicemente continuarono ad avere il ruolo che i loro antenati mantennero per generazioni all’interno della propria comunità, prima della conquista romana. Il lavoro mette compiutamente in luce come lo sviluppo delle città nella provincia abbia risentito fortemente dello scarso progresso politico, sociale ed economico che conobbero le tribù e le popolazioni durante la fase pre-romana. La colonizzazione greca, troppo modesta, non riuscì a far compiere quel salto qualitativo ai centri autoctoni, che rimasero sostanzialmente privi di concetti basilari di urbanistica, anche se è possibile notare, almeno nei centri costieri, l’adozione di tecniche evolute, ad esempio nella costruzione delle mura. In conclusione questo lavoro chiarisce analiticamente, con la raccolta di un’infinità di dati (archeologici e topografici, materiali ed epigrafici, e desunti dalle fonti storiche), come la formazione della città e l’urbanizzazione della sponda orientale dell’adriatico sia un fenomeno prettamente romano, pur differenziato, nelle sue dinamiche storiche, quasi caso per caso. I dati offerti dalla topografia delle città della Dalmatia, malgrado la scarsità di esempi ben documentati, sembrano confermare il principio della regolarità degli impianti urbani. Una griglia ortogonale severamente applicata la si individua innanzi tutto nelle città pianificate di Iader, Aequum e, probabilmente, anche a Salona. In primis nelle colonie, quindi, ma non esclusivamente. Anche numerosi municipi sviluppatisi da insediamenti di origine autoctona hanno espresso molto presto la tendenza allo sviluppo di un sistema ortogonale regolare, se non in tutta l’area urbana, almeno nei settori di più possibile applicazione. Ne sono un esempio Aenona, Arba, Argiruntum, Doclea, Narona ed altri. La mancanza di un’organizzazione spaziale regolare non ha tuttavia compromesso l’omogeneità di un’attrezzatura urbana tesa alla normalizzazione, in cui i componenti più importanti, forum e suoi annessi, complessi termali, templi dinastici e capitolia, si avviano a diventare canonici. Le differenze più sensibili, che pure non mancano, sembrano dipendere dalle abitudini delle diverse etnie, dai condizionamenti topografici e dalla disponibilità finanziaria dei notabili. Una città romana non può prendere corpo in tutta la sua pienezza solo per la volontà del potere centrale. Un progetto urbanistico resta un fatto teorico finché non si realizzano le condizioni per cui si fondano due fenomeni importantissimi: uno socio-culturale, che consiste nell’emergenza di una classe di notabili “fortunati” desiderosi di dare a Roma dimostrazioni di lealtà, pronti a rispondere a qualsiasi sollecitazione da parte del potere centrale e addirittura ad anticiparlo; l’altro politico-amministrativo, che riguarda il sistema instaurato da Roma, grazie al quale i suddetti notabili possono godere di un certo potere e muoversi in vista della promozione personale nell’ambito della propria città. Aiuti provenienti dagli imperatori o da governatori provinciali, per quanto consistenti, rimangono un fatto non sistematico se non imprevedibile, e rappresentano comunque un episodio circoscritto. Anche se qualche città risulta in grado di costruire pecunia publica alcuni importanti edifici del quadro monumentale, il ruolo del finanziamento pubblico resta relativamente modesto. Quando la documentazione epigrafica esiste, si rivela che sono i notabili locali i maggiori responsabili della costruzione delle opere pubbliche. Sebbene le testimonianze epigrafiche siano scarse e, per la Dalmatia non sia possibile formulare un quadro completo delle committenze che favorirono materialmente lo sviluppo architettonico ed artistico di molti complessi monumentali, tuttavia è possibile osservare e riconoscere alcuni aspetti significativi e peculiari della provincia.
Resumo:
La Piccola e Media Impresa (PMI) ha costituito in Italia e all’estero un fenomeno che ha permesso un’importante crescita economica dal secondo dopoguerra in poi e tutt’oggi rappresenta quasi il 95% delle imprese italiane. L’ambiente di riferimento odierno è molto dinamico ed incerto e la competitività è più difficile da raggiungere a causa delle nuove e crescenti economie emergenti. A rendere l’ambiente competitivo più complesso si è aggiunta la crisi internazionale nata intorno al 2006 negli Stati Uniti e arrivata in Europa un paio di anni dopo, portando l’economia globale in un periodo di recessione. Tutto ciò ha reso necessario ripensare all’approccio delle imprese verso i mercati, soprattutto le PMI, applicando nuovi processi d’innovazione. Questi non dovranno limitarsi alla sola ricerca di nuovi prodotti ma cambiare anche l’impostazione manageriale in modo da avviare innovazioni di mercato. E qui che il tema dell’internazionalizzazione assume ancor più rilevanza diventando, in un periodo di crisi economica, un’importante opportunità di crescita per le PMI. Dagli anni ’70 in poi le imprese multinazionali (MNCs) erano quelle che operavano in più Paesi e Continenti estendendo il proprio business in tutto il mondo. Per le piccole e medie imprese era difficile immaginare nuovi business al di fuori dei confini territoriali per le difficoltà che un processo di internazionalizzazione richiedeva. Oggi, l’internazionalizzazione, è vista come una chance di sopravvivenza ed è spinta da diversi fattori. Questi non si limitano più alla sola ricerca di maggiori ricavi ed abbattimento dei costi ma anche “sourcing” di Know-how e tecnologie, diversificazione del rischio, partecipazione a segmenti di mercato diventati globali e sfruttamento delle opportunità offerte dai governi esteri. Con il seguente lavoro di tesi si vogliono studiare le modalità in cui si svolgono processi di internazionalizzazione e l’origine dell’impulso che induce le piccole e medie imprese ad intraprenderli. A questo proposito si sono fatte ricerche su database e riviste scientifiche volte alla raccolta e analisi dei principali articoli che la letteratura offre su i temi appena citati. Individuate le principali teorie e modelli queste sono confrontate con un caso empirico cercando i punti di contatto tra ciò che è emerso dall’analisi teorica e quella empirica. A tal proposito viene mostrato il caso dell’azienda Sinergia Sistemi S.p.A. in cui ho collaborato e avuto modo di compiere ricerche per un periodo di sei mesi. Il lavoro di tesi è pertanto strutturato in quattro capitoli. Nel primo capitolo è esposta l’analisi della letteratura scientifica andando ad individuare le principali teorie sui processi di internazionalizzazione. Attraverso quest’analisi sarà possibile avere un quadro di riferimento sui possibili processi di internazionalizzazione che le imprese possono intraprendere. Nel secondo capitolo si vuole comprendere come le imprese arrivino alla decisione di internazionalizzarsi e quali fattori, interni ed esterni all’impresa, influenzino tale scelta. Nel terzo capitolo viene esaminato il caso di Sinergia Sistemi S.p.A., società operante nel campo delle energie rinnovabili ed efficienza energetica. Dopo una prima parte che introduce l’azienda ed il mercato delle rinnovabili, sarà analizzata la situazione attuale dell’azienda nel suo processo di internazionalizzazione e la strategia delineata. Nell’ultimo capitolo si effettuerà un confronto tra ciò che la letteratura scientifica propone sui processi di internazionalizzazione ed il caso specifico esaminato. Si cercherà di trovare dei riscontri tra le varie teorie offerte dalla letteratura con la strategia seguita da Sinergia Sistemi. L’obiettivo generale di questo lavoro di tesi è confrontare teorie e modelli di internazionalizzazione con un caso empirico per comprendere l’esistenza di un riscontro con le aziende appartenenti ad un particolare settore, quello delle energie rinnovabili. Vedremo come le peculiarità di questo settore portino le imprese a dare molta rilevanza ai network che si vengono a formare nei vari Paesi più che alla ricerca di innovazioni di prodotto, che resta sempre fondamentale per la crescita. L’appartenenza ai giusti network può semplificare notevolmente il processo di internazionalizzazione, se non diventare perfino indispensabile.
Resumo:
Questa tesi si basa su una serie di lavori precedenti, volti ad analizzare la correlazione tra i modelli AUML e le reti di Petri, per riuscire a fornire una metodologia di traduzione dai primi alle seconde. Questa traduzione permetterà di applicare tecniche di model checking alle reti così create, al fine di stabilire le proprietà necessarie al sistema per poter essere realizzato effettivamente. Verrà poi discussa un'implementazione di tale algoritmo sviluppata in tuProlog ed un primo approccio al model checking utilizzando il programma Maude. Con piccole modifiche all'algoritmo utilizzato per la conversione dei diagrammi AUML in reti di Petri, è stato possibile, inoltre, realizzare un sistema di implementazione automatica dei protocolli precedentemente analizzati, verso due piattaforme per la realizzazione di sistemi multiagente: Jason e TuCSoN. Verranno quindi presentate tre implementazioni diverse: la prima per la piattaforma Jason, che utilizza degli agenti BDI per realizzare il protocollo di interazione; la seconda per la piattaforma TuCSoN, che utilizza il modello A&A per rendersi compatibile ad un ambiente distribuito, ma che ricalca la struttura dell'implementazione precedente; la terza ancora per TuCSoN, che sfrutta gli strumenti forniti dalle reazioni ReSpecT per generare degli artefatti in grado di fornire una infrastruttura in grado di garantire la realizzazione del protocollo di interazione agli agenti partecipanti. Infine, verranno discusse le caratteristiche di queste tre differenti implementazioni su un caso di studio reale, analizzandone i punti chiave.
Resumo:
Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.
Resumo:
La distorsione della percezione della distanza tra due stimoli puntuali applicati sulla superfice della pelle di diverse regioni corporee è conosciuta come Illusione di Weber. Questa illusione è stata osservata, e verificata, in molti esperimenti in cui ai soggetti era chiesto di giudicare la distanza tra due stimoli applicati sulla superficie della pelle di differenti parti corporee. Da tali esperimenti si è dedotto che una stessa distanza tra gli stimoli è giudicata differentemente per diverse regioni corporee. Il concetto secondo cui la distanza sulla pelle è spesso percepita in maniera alterata è ampiamente condiviso, ma i meccanismi neurali che manovrano questa illusione sono, allo stesso tempo, ancora ampiamente sconosciuti. In particolare, non è ancora chiaro come sia interpretata la distanza tra due stimoli puntuali simultanei, e quali aree celebrali siano coinvolte in questa elaborazione. L’illusione di Weber può essere spiegata, in parte, considerando la differenza in termini di densità meccano-recettoriale delle differenti regioni corporee, e l’immagine distorta del nostro corpo che risiede nella Corteccia Primaria Somato-Sensoriale (homunculus). Tuttavia, questi meccanismi sembrano non sufficienti a spiegare il fenomeno osservato: infatti, secondo i risultati derivanti da 100 anni di sperimentazioni, le distorsioni effettive nel giudizio delle distanze sono molto più piccole rispetto alle distorsioni che la Corteccia Primaria suggerisce. In altre parole, l’illusione osservata negli esperimenti tattili è molto più piccola rispetto all’effetto prodotto dalla differente densità recettoriale che affligge le diverse parti del corpo, o dall’estensione corticale. Ciò, ha portato a ipotizzare che la percezione della distanza tattile richieda la presenza di un’ulteriore area celebrale, e di ulteriori meccanismi che operino allo scopo di ridimensionare – almeno parzialmente – le informazioni derivanti dalla corteccia primaria, in modo da mantenere una certa costanza nella percezione della distanza tattile lungo la superfice corporea. E’ stata così proposta la presenza di una sorta di “processo di ridimensionamento”, chiamato “Rescaling Process” che opera per ridurre questa illusione verso una percezione più verosimile. Il verificarsi di questo processo è sostenuto da molti ricercatori in ambito neuro scientifico; in particolare, dal Dr. Matthew Longo, neuro scienziato del Department of Psychological Sciences (Birkbeck University of London), le cui ricerche sulla percezione della distanza tattile e sulla rappresentazione corporea sembrano confermare questa ipotesi. Tuttavia, i meccanismi neurali, e i circuiti che stanno alla base di questo potenziale “Rescaling Process” sono ancora ampiamente sconosciuti. Lo scopo di questa tesi è stato quello di chiarire la possibile organizzazione della rete, e i meccanismi neurali che scatenano l’illusione di Weber e il “Rescaling Process”, usando un modello di rete neurale. La maggior parte del lavoro è stata svolta nel Dipartimento di Scienze Psicologiche della Birkbeck University of London, sotto la supervisione del Dott. M. Longo, il quale ha contribuito principalmente all’interpretazione dei risultati del modello, dando suggerimenti sull’elaborazione dei risultati in modo da ottenere un’informazione più chiara; inoltre egli ha fornito utili direttive per la validazione dei risultati durante l’implementazione di test statistici. Per replicare l’illusione di Weber ed il “Rescaling Proess”, la rete neurale è stata organizzata con due strati principali di neuroni corrispondenti a due differenti aree funzionali corticali: • Primo strato di neuroni (il quale dà il via ad una prima elaborazione degli stimoli esterni): questo strato può essere pensato come parte della Corteccia Primaria Somato-Sensoriale affetta da Magnificazione Corticale (homunculus). • Secondo strato di neuroni (successiva elaborazione delle informazioni provenienti dal primo strato): questo strato può rappresentare un’Area Corticale più elevata coinvolta nell’implementazione del “Rescaling Process”. Le reti neurali sono state costruite includendo connessioni sinaptiche all’interno di ogni strato (Sinapsi Laterali), e connessioni sinaptiche tra i due strati neurali (Sinapsi Feed-Forward), assumendo inoltre che l’attività di ogni neurone dipenda dal suo input attraverso una relazione sigmoidale statica, cosi come da una dinamica del primo ordine. In particolare, usando la struttura appena descritta, sono state implementate due differenti reti neurali, per due differenti regioni corporee (per esempio, Mano e Braccio), caratterizzate da differente risoluzione tattile e differente Magnificazione Corticale, in modo da replicare l’Illusione di Weber ed il “Rescaling Process”. Questi modelli possono aiutare a comprendere il meccanismo dell’illusione di Weber e dare così una possibile spiegazione al “Rescaling Process”. Inoltre, le reti neurali implementate forniscono un valido contributo per la comprensione della strategia adottata dal cervello nell’interpretazione della distanza sulla superficie della pelle. Oltre allo scopo di comprensione, tali modelli potrebbero essere impiegati altresì per formulare predizioni che potranno poi essere verificate in seguito, in vivo, su soggetti reali attraverso esperimenti di percezione tattile. E’ importante sottolineare che i modelli implementati sono da considerarsi prettamente come modelli funzionali e non intendono replicare dettagli fisiologici ed anatomici. I principali risultati ottenuti tramite questi modelli sono la riproduzione del fenomeno della “Weber’s Illusion” per due differenti regioni corporee, Mano e Braccio, come riportato nei tanti articoli riguardanti le illusioni tattili (per esempio “The perception of distance and location for dual tactile pressures” di Barry G. Green). L’illusione di Weber è stata registrata attraverso l’output delle reti neurali, e poi rappresentata graficamente, cercando di spiegare le ragioni di tali risultati.
Il pensiero politico internazionale di Montesquieu: tra la geopolitica e le relazioni internazionali
Resumo:
La tesi ha mostrato come il pensiero politico di Montesquieu possa costituire un utile riferimento teorico per affrontare il problema della ricontestualizzazione dello studio delle relazioni internazionali. La prima parte del lavoro evidenzia alcuni aspetti del metodo di ricerca e del pensiero politico di Montesquieu. Nel primo capitolo, è stato identificato un metodo di ricerca ed un approccio sociologico nello studio della politica, che rappresenta un precedente rispetto alla fondazione di una scienza politica che si propone di identificare nessi causali tra i fenomeni politici. In particolare, si deve riconoscere a Montesquieu il merito di aver introdotto un tipo di analisi della politica che consideri l’interazione di più fattori tra loro. La complessità del reale può essere spiegata soltanto identificando i rapporti che si formano tra gli elementi della realtà. Quindi è possibile porre dei principi in grado di produrre un ordine conoscibile ed interpretabile di tutti questi elementi. Nel secondo capitolo è stata presentata un’analisi delle tipologie delle forme di governo e del concetto di libertà politica. Questo capitolo ha evidenziato solo alcuni aspetti del pensiero politico di Montesquieu utili alla comprensione del pensiero politico internazionale. In particolare, è stata analizzata la struttura e il ressort di ogni forma di governo sottolineando gli aspetti di corruzione e i relativi processi di mutamento. La seconda parte del lavoro ha affrontato l’analisi di un pensiero politico internazionale ed ha evidenziato la rilevanza di una riflessione geopolitica. Nel terzo capitolo abbiamo mostrato l’emersione di una riflessione su alcuni argomenti di relazioni internazionali, quali il problema della guerra e della pace, il diritto internazionale e l’interdipendenza economica, legandoli alle forme di governo. Quindi sono stati identificati ed analizzati tre modelli di sistema internazionale sottolineando in particolare il nesso con il concetto di società internazionale. Tra questi modelli di sistema internazionale, quello che presenta le caratteristiche più singolari, è certamente il sistema della federazione di repubbliche. Infine, nell’ultimo capitolo, abbiamo evidenziato l’importanza della rappresentazione spaziale del mondo di Montesquieu e l’uso di categorie concettuali e metodi di analisi della geopolitica. In particolare, è stata rilevata l’importanza dell’aspetto dimensionale per la comprensione delle dinamiche di ascesa e declino delle forme di Stato e delle forme di governo. Si è mostrato come non sia possibile ascrivere il pensiero di Montesquieu nella categoria del determinismo geografico o climatico. Al contrario, abbiamo evidenziato come tale pensiero possa essere considerato un precedente di una corrente di pensiero della geopolitica francese definita “possibilismo”. Secondo questa teoria i fattori ambientali, più che esercitare un’azione diretta sul comportamento dell’uomo, agiscono selezionando il campo delle scelte possibili.
Resumo:
La mostra è diventata un nuovo paradigma della cultura contemporanea. Sostenuta da proprie regole e da una grammatica complessa produce storie e narrazioni. La presente ricerca di dottorato si struttura come un ragionamento critico sulle strategie del display contemporaneo, tentando di dimostrare, con strumenti investigativi eterogenei, assumendo fonti eclettiche e molteplici approcci disciplinari - dall'arte contemporanea, alla critica d'arte, la museologia, la sociologia, l'architettura e gli studi curatoriali - come il display sia un modello discorsivo di produzione culturale con cui il curatore si esprime. La storia delle esposizioni del XX secolo è piena di tentativi di cambiamento del rapporto tra lo sviluppo di pratiche artistiche e la sperimentazione di un nuovo concetto di mostra. Nei tardi anni Sessanta l’ingresso, nella scena dell’arte, dell’area del concettuale, demolisce, con un azzeramento radicale, tutte le convenzioni della rappresentazione artistica del dopoguerra, ‘teatralizzando’ il medium della mostra come strumento di potere e introducendo un nuovo “stile di presentazione” dei lavori, un display ‘dematerializzato” che rovescia le classiche relazioni tra opera, artista, spazio e istituzione, tra un curatore che sparisce (Siegelaub) e un curatore super-artista (Szeemann), nel superamento del concetto tradizionale di mostra stessa, in cui il lavoro del curatore, in quanto autore creativo, assumeva una propria autonomia strutturale all’interno del sistema dell’arte. Lo studio delle radici di questo cambiamento, ossia l’emergere di due tipi di autorialità: il curatore indipendente e l’artista che produce installazioni, tra il 1968 e il 1972 (le mostre di Siegelaub e Szeemann, la mimesi delle pratiche artistiche e curatoriali di Broodthaers e la tensione tra i due ruoli generata dalla Critica Istituzionale) permette di inquadrare teoricamente il fenomeno. Uno degli obbiettivi della ricerca è stato anche affrontare la letteratura critica attraverso una revisione/costruzione storiografica sul display e la storia delle teorie e pratiche curatoriali - formalizzata in modo non sistematico all'inizio degli anni Novanta, a partire da una rilettura retrospettiva della esperienze delle neoavanguardie – assumendo materiali e metodologie provenienti, come già dichiarato, da ambiti differenti, come richiedeva la composizione sfaccettata e non fissata dell’oggetto di studio, con un atteggiamento che si può definire comparato e post-disciplinare. Il primo capitolo affronta gli anni Sessanta, con la successione sistematica dei primi episodi sperimentali attraverso tre direzioni: l’emergere e l’affermarsi del curatore come autore, la proliferazione di mostre alternative che sovvertivano il formato tradizionale e le innovazioni prodotte dagli artisti organizzatori di mostre della Critica Istituzionale. Esponendo la smaterializzazione concettuale, Seth Siegelaub, gallerista, critico e impresario del concettuale, ha realizzato una serie di mostre innovative; Harald Szeemann crea la posizione indipendente di exhibition maker a partire When attitudes become forms fino al display anarchico di Documenta V; gli artisti organizzatori di mostre della Critica Istituzionale, soprattutto Marcel Broodhthears col suo Musée d’Art Moderne, Départment des Aigles, analizzano la struttura della logica espositiva come opera d’arte. Nel secondo capitolo l’indagine si sposta verso la scena attivista e alternativa americana degli anni Ottanta: Martha Rosler, le pratiche community-based di Group Material, Border Art Workshop/Taller de Arte Fronterizo, Guerrilla Girls, ACT UP, Art Workers' Coalition che, con proposte diverse elaborano un nuovo modello educativo e/o partecipativo di mostra, che diventa anche terreno del confronto sociale. La mostra era uno svincolo cruciale tra l’arte e le opere rese accessibili al pubblico, in particolare le narrazioni, le idee, le storie attivate, attraverso un originale ragionamento sulle implicazioni sociali del ruolo del curatore che suggeriva punti di vista alternativi usando un forum istituzionale. Ogni modalità di display stabiliva relazioni nuove tra artisti, istituzioni e audience generando abitudini e rituali diversi per guardare la mostra. Il potere assegnato all’esposizione, creava contesti e situazioni da agire, che rovesciavano i metodi e i formati culturali tradizionali. Per Group Material, così come nelle reading-room di Martha Rosler, la mostra temporanea era un medium con cui si ‘postulavano’ le strutture di rappresentazione e i modelli sociali attraverso cui, regole, situazioni e luoghi erano spesso sovvertiti. Si propongono come artisti che stanno ridefinendo il ruolo della curatela (significativamente scartano la parola ‘curatori’ e si propongono come ‘organizzatori’). La situazione cambia nel 1989 con la caduta del muro di Berlino. Oltre agli sconvolgimenti geopolitici, la fine della guerra fredda e dell’ideologia, l’apertura ai flussi e gli scambi conseguenti al crollo delle frontiere, i profondi e drammatici cambiamenti politici che coinvolgono l’Europa, corrispondono al parallelo mutamento degli scenari culturali e delle pratiche espositive. Nel terzo capitolo si parte dall’analisi del rapporto tra esposizioni e Late Capitalist Museum - secondo la definizione di Rosalind Krauss - con due mostre cruciali: Le Magiciens de la Terre, alle origini del dibattito postcoloniale e attraverso il soggetto ineffabile di un’esposizione: Les Immatériaux, entrambe al Pompidou. Proseguendo nell’analisi dell’ampio corpus di saggi, articoli, approfondimenti dedicati alle grandi manifestazioni internazionali, e allo studio dell’espansione globale delle Biennali, avviene un cambiamento cruciale a partire da Documenta X del 1997: l’inclusione di lavori di natura interdisciplinare e la persistente integrazione di elementi discorsivi (100 days/100 guests). Nella maggior parte degli interventi in materia di esposizioni su scala globale oggi, quello che viene implicitamente o esplicitamente messo in discussione è il limite del concetto e della forma tradizionale di mostra. La sfida delle pratiche contemporanee è non essere più conformi alle tre unità classiche della modernità: unità di tempo, di spazio e di narrazione. L’episodio più emblematico viene quindi indagato nel terzo capitolo: la Documenta X di Catherine David, il cui merito maggiore è stato quello di dichiarare la mostra come format ormai insufficiente a rappresentare le nuove istanze contemporanee. Le quali avrebbero richiesto - altrimenti - una pluralità di modelli, di spazi e di tempi eterogenei per poter divenire un dispositivo culturale all’altezza dei tempi. La David decostruisce lo spazio museale come luogo esclusivo dell’estetico: dalla mostra laboratorio alla mostra come archivio, l’evento si svolge nel museo ma anche nella città, con sottili interventi di dissimulazione urbana, nel catalogo e nella piattaforma dei 100 giorni di dibattito. Il quarto capitolo affronta l’ultima declinazione di questa sperimentazione espositiva: il fenomeno della proliferazione delle Biennali nei processi di globalizzazione culturale. Dalla prima mostra postcoloniale, la Documenta 11 di Okwui Enwezor e il modello delle Platforms trans-disciplinari, al dissolvimento dei ruoli in uno scenario post-szeemanniano con gli esperimenti curatoriali su larga scala di Sogni e conflitti, alla 50° Biennale di Venezia. Sono analizzati diversi modelli espositivi (la mostra-arcipelago di Edouard Glissant; il display in crescita di Zone of Urgency come estetizzazione del disordine metropolitano; il format relazionale e performativo di Utopia Station; il modello del bric à brac; la “Scuola” di Manifesta 6). Alcune Biennali sono state sorprendentemente autoriflessive e hanno consentito un coinvolgimento più analitico con questa particolare forma espressiva. Qual è l'impatto sulla storia e il dibattito dei sistemi espositivi? Conclusioni: Cos’è la mostra oggi? Uno spazio sotto controllo, uno spazio del conflitto e del dissenso, un modello educativo e/o partecipativo? Una piattaforma, un dispositivo, un archivio? Uno spazio di negoziazione col mercato o uno spazio di riflessione e trasformazione? L’arte del display: ipotesi critiche, prospettive e sviluppi recenti.
Resumo:
La tesi tratta alcuni dei principali filtri di diffusione non lineari per il problema di denoising di immagini. In particolare pertendo dalla formulazione del problema come minimizzazione di un funzionale introduce modelli allo stato dell'arte come il filtro Lineare, di Perona Malik, alle Variazioni Totali e per Curvatura; infine un nuovo modello diffusivo sviluppato dal prof.Antonio Marquina è per la prima volta applicato al problema di denoising. Seguono numerosi schemi numerici alle differenze finite per risolverli, che generano procedimenti iterativi espliciti, impliciti e AOS. Verrà analizzato per la prima volta per il problema di denoising uno schema conservativo al prim'ordine e di ordine superiore, dopo evere proposto una modifica per rendere idoneo la funzione diffusività. Infine vi è un ampio capitolo con considerazioni numeriche e visive sui risultati sperimentali ottenuti.
Resumo:
Nonostante l’oggettiva constatazione dei risultati positivi riscontrati a seguito dei trattamenti radioterapici a cui sono sottoposti i pazienti a cui è stato diagnosticato un tumore, al giorno d’oggi i processi biologici responsabili di tali effetti non sono ancora perfettamente compresi. Inseguendo l’obbiettivo di riuscire a definire tali processi è nata la branca delle scienze biomediche denominata radiobiologia, la quale appunto ha lo scopo di studiare gli effetti provocati dalle radiazioni quando esse interagiscono con un sistema biologico. Di particolare interesse risulta essere lo studio degli effetti dei trattamenti radioterapici nei pazienti con tumore del polmone che rappresentano la principale causa di morte dei paesi industrializzati. Purtroppo per via della scarsa reperibilità di materiale, non è stato finora possibile studiare nel dettaglio gli effetti delle cure radioterapiche nel caso di questo specifico tumore. Grazie alle ricerche di alcuni biologi dell’IRST sono stati creati in-vitro sferoidi composti da cellule staminali e tumorali di polmone, chiamate broncosfere, permettendo così di avere ottimi modelli tridimensionali di tessuto umano allo stato solido su cui eseguire esperimenti al fine di regolare i parametri dei trattamenti radioterapici, al fine di massimizzarne l’effetto di cura. In questo lavoro di Tesi sono state acquisite sequenze di immagini relative a broncosfere sottoposte a differenti tipologie di trattamenti radioterapici. Le immagini acquisite forniscono importanti indicazioni densitomorfometriche che correlate a dati clinoco-biologico potrebbero fornire importanti indicazioni per regolare parametri fondamentali dei trattamenti di cura. Risulta però difficile riuscire a confrontare immagini cellulari di pre e post-trattamento, e poter quindi effettuare delle correlazioni fra modalità di irraggiamento delle cellule e relative caratteristiche morfometriche, in particolare se le immagini non vengono acquisite con medesimi parametri e condizioni di cattura. Inoltre, le dimensioni degli sferoidi cellulari da acquisire risultano essere tipicamente maggiori del parametro depth of focus del sistema e questo implica che non è possibile acquisire una singola immagine completamente a fuoco di essi. Per ovviare a queste problematiche sono state acquisite sequenze di immagini relative allo stesso oggetto ma a diversi piani focali e sono state ricostruite le immagini completamente a fuoco utilizzando algoritmi per l’estensione della profondità di campo. Sono stati quindi formulati due protocolli operativi per fissare i procedimenti legati all’acquisizione di immagini di sferoidi cellulari e renderli ripetibili da più operatori. Il primo prende in esame le metodiche seguite per l’acquisizione di immagini microscopiche di broncosfere per permettere di comparare le immagini ottenute in diverse acquisizioni, con particolare attenzione agli aspetti critici di tale operazione. Il secondo è relativo alla metodica seguita nella archiviazione di tali immagini, seguendo una logica di classificazione basata sul numero di trattamenti subiti dal singolo sferoide. In questo lavoro di Tesi sono stati acquisiti e opportunamente archiviati complessivamente circa 6500 immagini di broncosfere riguardanti un totale di 85 sferoidi. I protocolli elaborati permetteranno di espandere il database contenente le immagini di broncosfere con futuri esperimenti, in modo da disporre di informazioni relative anche ai cambiamenti morfologici subiti dagli sferoidi in seguito a varie tipologie di radiotrattamenti e poter quindi studiare come parametri di frazionamento di dose influenzano la cura. Infine, grazie alle tecniche di elaborazioni delle immagini che stiamo sviluppando sarà inoltre possibile disporre di una ricostruzione della superficie degli sferoidi in tempo reale durante l’acquisizione.