939 resultados para gallerie subsidenza elementi finiti interazione terreno-struttura
Resumo:
La mostra è diventata un nuovo paradigma della cultura contemporanea. Sostenuta da proprie regole e da una grammatica complessa produce storie e narrazioni. La presente ricerca di dottorato si struttura come un ragionamento critico sulle strategie del display contemporaneo, tentando di dimostrare, con strumenti investigativi eterogenei, assumendo fonti eclettiche e molteplici approcci disciplinari - dall'arte contemporanea, alla critica d'arte, la museologia, la sociologia, l'architettura e gli studi curatoriali - come il display sia un modello discorsivo di produzione culturale con cui il curatore si esprime. La storia delle esposizioni del XX secolo è piena di tentativi di cambiamento del rapporto tra lo sviluppo di pratiche artistiche e la sperimentazione di un nuovo concetto di mostra. Nei tardi anni Sessanta l’ingresso, nella scena dell’arte, dell’area del concettuale, demolisce, con un azzeramento radicale, tutte le convenzioni della rappresentazione artistica del dopoguerra, ‘teatralizzando’ il medium della mostra come strumento di potere e introducendo un nuovo “stile di presentazione” dei lavori, un display ‘dematerializzato” che rovescia le classiche relazioni tra opera, artista, spazio e istituzione, tra un curatore che sparisce (Siegelaub) e un curatore super-artista (Szeemann), nel superamento del concetto tradizionale di mostra stessa, in cui il lavoro del curatore, in quanto autore creativo, assumeva una propria autonomia strutturale all’interno del sistema dell’arte. Lo studio delle radici di questo cambiamento, ossia l’emergere di due tipi di autorialità: il curatore indipendente e l’artista che produce installazioni, tra il 1968 e il 1972 (le mostre di Siegelaub e Szeemann, la mimesi delle pratiche artistiche e curatoriali di Broodthaers e la tensione tra i due ruoli generata dalla Critica Istituzionale) permette di inquadrare teoricamente il fenomeno. Uno degli obbiettivi della ricerca è stato anche affrontare la letteratura critica attraverso una revisione/costruzione storiografica sul display e la storia delle teorie e pratiche curatoriali - formalizzata in modo non sistematico all'inizio degli anni Novanta, a partire da una rilettura retrospettiva della esperienze delle neoavanguardie – assumendo materiali e metodologie provenienti, come già dichiarato, da ambiti differenti, come richiedeva la composizione sfaccettata e non fissata dell’oggetto di studio, con un atteggiamento che si può definire comparato e post-disciplinare. Il primo capitolo affronta gli anni Sessanta, con la successione sistematica dei primi episodi sperimentali attraverso tre direzioni: l’emergere e l’affermarsi del curatore come autore, la proliferazione di mostre alternative che sovvertivano il formato tradizionale e le innovazioni prodotte dagli artisti organizzatori di mostre della Critica Istituzionale. Esponendo la smaterializzazione concettuale, Seth Siegelaub, gallerista, critico e impresario del concettuale, ha realizzato una serie di mostre innovative; Harald Szeemann crea la posizione indipendente di exhibition maker a partire When attitudes become forms fino al display anarchico di Documenta V; gli artisti organizzatori di mostre della Critica Istituzionale, soprattutto Marcel Broodhthears col suo Musée d’Art Moderne, Départment des Aigles, analizzano la struttura della logica espositiva come opera d’arte. Nel secondo capitolo l’indagine si sposta verso la scena attivista e alternativa americana degli anni Ottanta: Martha Rosler, le pratiche community-based di Group Material, Border Art Workshop/Taller de Arte Fronterizo, Guerrilla Girls, ACT UP, Art Workers' Coalition che, con proposte diverse elaborano un nuovo modello educativo e/o partecipativo di mostra, che diventa anche terreno del confronto sociale. La mostra era uno svincolo cruciale tra l’arte e le opere rese accessibili al pubblico, in particolare le narrazioni, le idee, le storie attivate, attraverso un originale ragionamento sulle implicazioni sociali del ruolo del curatore che suggeriva punti di vista alternativi usando un forum istituzionale. Ogni modalità di display stabiliva relazioni nuove tra artisti, istituzioni e audience generando abitudini e rituali diversi per guardare la mostra. Il potere assegnato all’esposizione, creava contesti e situazioni da agire, che rovesciavano i metodi e i formati culturali tradizionali. Per Group Material, così come nelle reading-room di Martha Rosler, la mostra temporanea era un medium con cui si ‘postulavano’ le strutture di rappresentazione e i modelli sociali attraverso cui, regole, situazioni e luoghi erano spesso sovvertiti. Si propongono come artisti che stanno ridefinendo il ruolo della curatela (significativamente scartano la parola ‘curatori’ e si propongono come ‘organizzatori’). La situazione cambia nel 1989 con la caduta del muro di Berlino. Oltre agli sconvolgimenti geopolitici, la fine della guerra fredda e dell’ideologia, l’apertura ai flussi e gli scambi conseguenti al crollo delle frontiere, i profondi e drammatici cambiamenti politici che coinvolgono l’Europa, corrispondono al parallelo mutamento degli scenari culturali e delle pratiche espositive. Nel terzo capitolo si parte dall’analisi del rapporto tra esposizioni e Late Capitalist Museum - secondo la definizione di Rosalind Krauss - con due mostre cruciali: Le Magiciens de la Terre, alle origini del dibattito postcoloniale e attraverso il soggetto ineffabile di un’esposizione: Les Immatériaux, entrambe al Pompidou. Proseguendo nell’analisi dell’ampio corpus di saggi, articoli, approfondimenti dedicati alle grandi manifestazioni internazionali, e allo studio dell’espansione globale delle Biennali, avviene un cambiamento cruciale a partire da Documenta X del 1997: l’inclusione di lavori di natura interdisciplinare e la persistente integrazione di elementi discorsivi (100 days/100 guests). Nella maggior parte degli interventi in materia di esposizioni su scala globale oggi, quello che viene implicitamente o esplicitamente messo in discussione è il limite del concetto e della forma tradizionale di mostra. La sfida delle pratiche contemporanee è non essere più conformi alle tre unità classiche della modernità: unità di tempo, di spazio e di narrazione. L’episodio più emblematico viene quindi indagato nel terzo capitolo: la Documenta X di Catherine David, il cui merito maggiore è stato quello di dichiarare la mostra come format ormai insufficiente a rappresentare le nuove istanze contemporanee. Le quali avrebbero richiesto - altrimenti - una pluralità di modelli, di spazi e di tempi eterogenei per poter divenire un dispositivo culturale all’altezza dei tempi. La David decostruisce lo spazio museale come luogo esclusivo dell’estetico: dalla mostra laboratorio alla mostra come archivio, l’evento si svolge nel museo ma anche nella città, con sottili interventi di dissimulazione urbana, nel catalogo e nella piattaforma dei 100 giorni di dibattito. Il quarto capitolo affronta l’ultima declinazione di questa sperimentazione espositiva: il fenomeno della proliferazione delle Biennali nei processi di globalizzazione culturale. Dalla prima mostra postcoloniale, la Documenta 11 di Okwui Enwezor e il modello delle Platforms trans-disciplinari, al dissolvimento dei ruoli in uno scenario post-szeemanniano con gli esperimenti curatoriali su larga scala di Sogni e conflitti, alla 50° Biennale di Venezia. Sono analizzati diversi modelli espositivi (la mostra-arcipelago di Edouard Glissant; il display in crescita di Zone of Urgency come estetizzazione del disordine metropolitano; il format relazionale e performativo di Utopia Station; il modello del bric à brac; la “Scuola” di Manifesta 6). Alcune Biennali sono state sorprendentemente autoriflessive e hanno consentito un coinvolgimento più analitico con questa particolare forma espressiva. Qual è l'impatto sulla storia e il dibattito dei sistemi espositivi? Conclusioni: Cos’è la mostra oggi? Uno spazio sotto controllo, uno spazio del conflitto e del dissenso, un modello educativo e/o partecipativo? Una piattaforma, un dispositivo, un archivio? Uno spazio di negoziazione col mercato o uno spazio di riflessione e trasformazione? L’arte del display: ipotesi critiche, prospettive e sviluppi recenti.
Resumo:
Nelle attuali organizzazioni sanitarie non è raro trovare operatori sanitari i quali ritengono che la relazione con il paziente consista nell'avere adeguate competenze tecniche inerenti la professione e nell'applicarle con attenzione e diligenza. Peraltro si tende ad invocare il “fattore umano”, ma si lamenta poi che l’operatore si rapporti col paziente in modo asettico e spersonalizzato. Da un punto di vista scientifico il termine “relazione” in psicologia si riferisce essenzialmente ai significati impliciti e quasi sempre non consapevoli veicolati da qualunque relazione: dipende pertanto dalla struttura psichica dei due interlocutori investendo in particolare la sfera dell’affettività e procede per processi comunicativi che travalicano il linguaggio verbale e con esso le intenzioni razionali e coscienti. La relazione interpersonale quindi rientra nel più ampio quadro dei processi di comunicazione: sono questi o meglio i relativi veicoli comunicazionali, che ci dicono della qualità delle relazioni e non viceversa e cioè che i processi comunicazionali vengano regolati in funzione della relazione che si vuole avere (Imbasciati, Margiotta, 2005). Molti studi in materia hanno dimostrato come, oltre alle competenze tecnicamente caratterizzanti la figura dell’infermiere, altre competenze, di natura squisitamente relazionale, giochino un ruolo fondamentale nel processo di ospedalizzazione e nella massimizzazione dell’aderenza al trattamento da parte del paziente, la cui non osservanza è spesso causa di fallimenti terapeutici e origine di aumentati costi sanitari e sociali. Questo aspetto è però spesso messo in discussione a favore di un maggiore accento sugli aspetti tecnico professionali. Da un “modello delle competenze” inteso tecnicisticamente prende origine infatti un protocollo di assistenza infermieristica basato sull’applicazione sistematica del problem solving method: un protocollo preciso (diagnosi e pianificazione) guida l’interazione professionale fra infermiere e la persona assistita. A lato di questa procedura il processo di assistenza infermieristica riconosce però anche un versante relazionale, spesso a torto detto umanistico riferendosi alla soggettività dei protagonisti interagenti: il professionista e il beneficiario dell’assistenza intesi nella loro globalità bio-fisiologica, psicologica e socio culturale. Nel pensiero infermieristico il significato della parola relazione viene però in genere tradotto come corrispondenza continua infermiere-paziente, basata sulle dimensioni personali del bisogno di assistenza infermieristica e caratterizzata da un modo di procedere dialogico e personalizzato centrato però sugli aspetti assistenziali, in cui dall’incontro degli interlocutori si determinerebbe la natura delle cure da fornire ed i mezzi con cui metterle in opera (Colliere, 1992; Motta, 2000). Nell’orientamento infermieristico viene affermata dunque la presenza di una relazione. Ma di che relazione si tratta? Quali sono le capacità necessarie per avere una buona relazione? E cosa si intende per “bisogni personali”? Innanzitutto occorre stabilire cosa sia la buona relazione. La buona o cattiva relazione è il prodotto della modalità con cui l’operatore entra comunque in interazione con il proprio paziente ed è modulata essenzialmente dalle capacità che la sua struttura, consapevole o no, mette in campo. DISEGNO DELLA LA RICERCA – 1° STUDIO Obiettivo del primo studio della presente ricerca, è un’osservazione delle capacità relazionali rilevabili nel rapporto infermiere/paziente, rapporto che si presume essere un caring. Si è voluto fissare l’attenzione principalmente su quelle dimensioni che possono costituire le capacità relazionali dell’infermiere. Questo basandoci anche su un confronto con le aspettative di relazione del paziente e cercando di esplorare quali collegamenti vi siano tra le une e le altre. La relazione e soprattutto la buona relazione non la si può stabilire con la buona volontà, né con la cosiddetta sensibilità umana, ma necessita di capacità che non tutti hanno e che per essere acquisite necessitano di un tipo di formazione che incida sulle strutture profonde della personalità. E’ possibile ipotizzare che la personalità e le sue dimensioni siano il contenitore e gli elementi di base sui quali fare crescere e sviluppare capacità relazionali mature. Le dimensioni di personalità risultano quindi lo snodo principale da cui la ricerca può produrre i suoi risultati e da cui si è orientata per individuare gli strumenti di misura. La motivazione della nostra scelta dello strumento è da ricercare quindi nel tentativo di esplorare l’incidenza delle dimensioni e sottodimensioni di personalità. Tra queste si è ritenuto importante il costrutto dell’Alessitimia, caratteristico nel possesso e quindi nell’utilizzo, più o meno adeguato, di capacità relazionali nel processo di caring,
Resumo:
Lo svolgimento della tesi segue la falsariga del discorso tenuto da Pier Luigi Nervi a Torino nel maggio 1961 al momento dell’inaugurazione del Palazzo del Lavoro. In quell’occasione egli illustra la concezione strutturale del suo edificio, realizzato attraverso l’accostamento di 16 elementi autoportanti e indipendenti (ciascuno costituito da un grande pilastro in cemento armato a sezione variabile - da cruciforme a circolare - e da una piastra metallica di copertura) che gli permettono di coprire uno spazio di 25.000 mq come richiesto dal bando di concorso. Nel descrivere le varie parti dell’edificio e le modalità con cui si sono susseguite le differenti lavorazioni (attraverso fasi di cantiere attentamente pianificate), Nervi omette un particolare interessante. Esaminando i disegni esecutivi dell’opera si rileva che all’interno di ogni pilastro è presente una cavità che permette di percorrerlo dalla base fino alla sommità. Ad una prima osservazione questi ‘cunicoli nascosti’ ricordano quelli ricavati nelle spesse murature delle cattedrali romaniche o gotiche, all’interno delle quali si trovano scale a chiocciola che collegano la cripta alla copertura o alle intercapedini del sottotetto. Come per le cattedrali del passato, anche nel Palazzo del Lavoro la creazione di uno spazio praticabile interno alla struttura risponde a più requisiti: funzionale (la manutenzione dei pluviali e delle coperture), costruttivo (la riduzione del peso proprio della struttura) ed economico (il risparmio del materiale). Nervi considera probabilmente questo dettaglio costruttivo un aspetto tecnico di minore importanza, appartenente cioè ad una dimensione ordinaria del proprio lavoro. Eppure, lo spazio ricavato all’interno del pilastro non coinvolge aspetti esclusivamente tecnici, ma sembra piuttosto nascere da una chiara visione progettuale che insegue un’idea di architettura, di unità, di organicità, di ‘servizio’ e di etica del mestiere. Dall’osservazione dell’edificio e della documentazione di progetto se ne ricava infatti una differente considerazione: lo scavo del pilastro non costituisce un aspetto secondario e, viste le implicazioni di carattere spaziale che introduce, merita di essere compreso e approfondito alla luce dell’intera opera di Nervi.
Resumo:
Il continuo sdoppiamento e la riverberazione sono le matrici di sviluppo di questa tesi, in cui le ricerche di Grotowski legate al Parateatro e al Teatro delle Fonti sono indagate e interpretate a partire da un pensiero polivalente che prende avvio nella sociologia della cultura e si radica in un terreno antropologico. La ricerca si configura come un’interpretazione possibile delle scelte operate da Grotowski e, complessivamente, dal Teatro Laboratorio, nel contesto delle trasformazioni socio-culturali successive agli anni Sessanta verificando come nel periodo dal '70 all'82 le scelte stesse rispecchino i valori culturali dell’epoca.La ricerca ricorre alla categoria della “festa” - intesa come realtà quotidiana elevata alla forma rituale, attraverso gli elementi culturali e identitari del gruppo di appartenenza - e, a partire da essa, sovrappone criticamente la logica dell’“identità in performance” con la nozione di “Incontro” elaborata da Grotowski. Questa logica è, successivamente, problematizzata attraverso il “diamante culturale”, un dispositivo di analisi della sociologia della culturache, a sua volta, è discusso eridimensionato a partire dalpresuppostodi “Decostruzione” e dall’idea di “Decondizionamento”legata al lavoro del Performer, inteso come individuo.Tre immagini e un’incognita rivelano i campi d’azioneed i principi che permeano l’intera ricerca raddoppiandosi e congiungendo l’immagine del Performer come individuo riflessivo. L’immagine riflessa si configura nel contrasto fra apparenza e presenza: nella domanda posta da Grotowski “che si può fare con la propria solitudine?” si evidenzia uno dei problemi a cui deve far fronte l’individuo in una determinata struttura culturale e, al contempo, viene suggerita una possibilità di amplificazione della percezione di “se stesso” da parte dell’Attore-Performer come Individuo.
Resumo:
Il continuo sviluppo negli ultimi anni di diverse declinazioni della spettroscopia d'assorbimento a raggi X (XAS) con radiazione di sincrotrone ha permesso la determinazione della struttura locale di campioni di ogni tipo, dagli elementi puri, ai più moderni materiali, indagando e approfondendo la conoscenza di quei meccanismi che conferiscono a questi ultimi delle proprietà innovative e, a volte, rivoluzionarie. Il vantaggio di questa tecnica è quello di poter ottenere informazioni sulla struttura del campione soprattutto a livello locale, rendendo relativamente agevole l'analisi di sistemi senza ordine a lungo raggio, quali per esempio i film molecolari. Nell'elaborato verrà preliminarmente illustrata la fenomenologia della XAS e l’interpretazione teorica dell'origine della struttura fine. Saranno successivamente descritte le innovative tecniche di misura che permettono di studiare i cambiamenti della struttura locale indotti dall'illuminazione con luce visibile, inclusi gli esperimenti di tipo pump probe. Un capitolo della tesi è interamente dedicato alla descrizione dei campioni studiati, di cui sono stati analizzati alcuni dati acquisiti in condizioni statiche. Quest'analisi è stata compiuta sfruttando anche dei cammini di multiplo scattering dedicando particolare attenzione alla trattazione del fattore di Debye Waller. Nella parte principale della tesi verranno descritti la progettazione ed il test di un apparato sperimentale per l'acquisizione di spettri differenziali da utilizzare alla beamline BM08 dell'European Synchrotron Radiation Facility di Grenoble. Saranno presentate principalmente le modifiche apportate al software d'acquisizione della linea e la progettazione di un sistema ottico d'eccitazione da montare nella camera sperimentale. Nella fase di studio dell'ottica è stato creato in LabView un simulatore basato sul metodo Monte Carlo, capace di prevedere il comportamento del sistema di lenti.
Resumo:
La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.
Il progetto delle pavimentazioni stradali in materiale lapideo: il caso del centro storico di Modena
Resumo:
Le vibrazioni indotte dal traffico costituiscono un problema diffuso a causa degli effetti indesiderati che possono generare a lungo termine sulle opere architettoniche e sulle persone. L’intensità di questi fenomeni dipende da numerosi fattori tra cui le caratteristiche dei veicoli (massa, tipo di sospensioni), le relative velocità, la regolarità del piano viabile, le proprietà del terreno di sottofondo, la struttura degli edifici esposti e, soprattutto, le caratteristiche meccaniche dei materiali costituenti la pavimentazione. Il problema è particolarmente sentito nei centri storici delle aree urbane per la presenza di edifici di grande valore artistico e per l’impiego di pavimentazioni di tipo lapideo, caratterizzate da numerose irregolarità di superficie: nasce, quindi, l’esigenza di individuare criteri progettuali e tecnologie costruttive mirati all’attenuazione di questi fenomeni indesiderati e nocivi. A tal fine la presente tesi prevede: • una prima parte, che descrive il centro storico di Modena a partire da un quadro generale storico-morfologico e di pianificazione urbanistica, con particolare attenzione alle tipologie di pavimentazioni stradali ad elementi lapidei e ai materiali tradizionalmente in uso nel territorio modenese; • una seconda parte, che presenta il caso di studio di Piazza Roma e il relativo progetto di recupero per la pedonalizzazione dello spazio pubblico tuttora in corso di realizzazione. Quest'ultimo è stato analizzato da un punto di vista non solo teorico-descrittivo, ma anche pratico-sperimentale, seguendo l’esecuzione dei lavori in cantiere in collaborazione con il Settore Manutenzione e Logistica del Comune di Modena; • una terza parte, relativa al problema delle vibrazioni indotte dal traffico sulle pavimentazioni stradali ad elementi lapidei. Il problema è stato affrontato in termini prima generali, descrivendo i meccanismi di generazione, propagazione e ricezione delle vibrazioni, gli effetti di danneggiamento che possono provocare sulle costruzioni circostanti, le più diffuse tipologie di intervento note in letteratura. Successivamente è stato considerato il caso di Piazza Roma e, partendo dalla rilevazione sperimentale del quadro vibratorio degli edifici adiacenti alla sede stradale, è stata valutata l’efficacia di alcune soluzioni progettuali ai fini della riqualificazione dello stato di fatto.
Resumo:
L'obiettivo di questo elaborato è sviluppare un ambiente Matlab per il progetto ed il disegno di strutture utilizzabili in campo aerospaziale, basate su elementi a forbice. Questi elementi presentano la possibilità di espandersi così che una struttura con ridotto ingombro in posizione retratta può espandersi fino ad aumentare le sue dimensioni di diverse volte. Per la progettazione di questo ambiente è stato necessario studiare le relazioni geometriche che regolano i movimenti di questi elementi. Sono poi state implementate delle funzioni in ambiente Matlab® per studiare il movimento di questi elementi, partendo dalla simulazione del singolo elemento, per poi passare a strutture sempre più complicate realizzate come assemblaggio di più strutture elementari. Inoltre è stata progettata e implementata un’interfaccia grafica intuitiva con lo scopo di facilitare il compito del progettista. L’ambiente realizzato permette il progetto e il disegno di alcune semplici strutture, ma può essere ulteriormente sviluppato per implementare un numero sempre maggiore di strutture basate su elementi a forbice. Grazie all’ambiente realizzato, inserendo pochi parametri di progetto nell’apposita interfaccia, si può ottenere il dimensionamento di una struttura, la sua visualizzazione e simulare la sua espansione. Anche se l’ambiente è stato pensato per gestire una grande varietà di soluzioni costruttive, ne sono state implementate due: una struttura piana basata sulla ripetizione circolare di un elemento a forbice e una struttura tridimensionale basata su una serie di corone circolari disposte nello spazio. Queste, seppur non riconducibili a precise realizzazioni aerospaziali, possono essere la base per la progettazione di reali applicazioni come ad esempio satelliti espandibili nel caso 3D. La tesi presenta quindi: un’analisi delle relazioni geometriche che stanno alla base del movimento degli elementi a forbice, una descrizione delle funzioni implementate per simulare le due strutture prese in esame, la presentazione di quali caratteristiche sono state implementate nell’interfaccia grafica e come questa è stata implementata in Matlab, un cenno alle conclusioni che si possono trarre e ad alcuni possibili sviluppi.
Resumo:
Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.
Resumo:
La capacità della spettroscopia di assorbimento di riuscire a determinare la struttura locale di campioni di ogni tipo e concentrazione, dagli elementi puri ai più moderni materiali nanostrutturati, rende lo studio dei meccanismi di incorporazione di droganti in matrici di semiconduttori il campo che meglio ne esprime tutto il potenziale. Inoltre la possibilità di ottenere informazioni sulla struttura locale di un particolare elemento in traccia posto in sistemi senza ordine a lungo raggio risulta, ovviamente, nello studio dei semiconduttori di grandissimo interesse. Tuttavia, la complessità di determinate strutture, generate dalla incorporazione di elementi eterovalenti che ne modificano la simmetria, può far si che all’analisi sperimentale si debbano affiancare dei metodi avanzati ab-initio. Questi approcci garantiscono, attraverso la simulazione o di strutture atomiche o dello stesso spettro XAS, di ottenere una più completa e precisa interpretazione dei dati sperimentali. Nella fase preliminare di questo elaborato si illustrerà la fenomenologia della spettroscopia di assorbimento e i fondamenti teorici che stanno alla base dell’analisi della struttura fine di soglia. Si introdurranno contemporaneamente le tecniche sperimentali con cui si realizzano le misure di spettri di assorbimento su una beamline che sfrutta sorgente di radiazione di sincrotrone facendo riferimento agli strumenti montati sulla linea LISA (o BM08) presso l’European Synchrotron Radiation Facility di Grenoble su cui si sono realizzati gli esperimenti di questo lavoro. Successivamente si realizzerà una rassegna di alcuni esperimenti simbolo della analisi della struttura locale di droganti in semiconduttori mediante XAFS, andando ad approfondire i metodi sperimentali associati. Nella parte principale della tesi verranno descritti alcuni tipi di analisi avanzate effettuate su Colloidal Quantum Dots a base di solfuro di piombo drogati con antimonio. Tali sistemi, particolarmente interessanti per potenziali applicazioni in campo optoelettrico, sono stati analizzati mediante misure di fluorescenza ottenute sulla beamline LISA. La fase di analisi ha visto la progettazione di una suite di programmi in C++ per realizzare simulazioni di uno spettro XAS teorico completo basato su strutture ottenute (anche esse) da metodi ab-initio.
Resumo:
Lo spazio duale V* di un K-spazio vettoriale V, con K = R, o C, è definito come l'insieme dei funzionali lineari e continui da V in K. Definendo su di esso le operazioni di somma tra funzionali lineari e di prodotto per scalare, V* acquisisce una struttura di K-spazio vettoriale che risulta molto utile. Infatti il suo studio permette di comprendere meglio le caratteristiche dello spazio V. A tal proposito interviene l'argomento che è oggetto dell'elaborato: il Teorema di Rappresentazione di Riesz. Diversi risultati sono raggruppati sotto questo nome, che deriva dal matematico ungherese Frigyes Riesz, e tutti permettono di caratterizzare chiaramente gli elementi del duale dello spazio a cui si riferiscono. Scopo della tesi è quello di presentare il teorema nelle sue varie forme a partire da una delle più elementari: quella relativa a spazi vettoriali finiti. Ripercorrendo via via le sue generalizzazioni si arriverà all'enunciato inerente allo spazio delle funzioni continue f da X in C che si annullano all'infinito, dove X è uno spazio di Hausdorff localmente compatto. Si vedrà inoltre un esempio di applicazione del teorema.
Resumo:
La documentazione tecnica ha assunto un ruolo fondamentale per i produttori sia per rispondere agli obblighi di legge (v. Direttiva Macchine 2006/42/CE) sia come strumento di marketing. Dato l’alto grado di ripetitività dei manuali di istruzioni e le numerose lingue di destinazione, per la loro traduzione è indispensabile l’uso dei CAT tool. In questo contesto, la presente tesi si pone l’obiettivo di individuare una serie di elementi linguistici che possano fornire informazioni sulla qualità dei testi di partenza in italiano e su cui si possa intervenire per migliorarli, nell’ottica di ottimizzare l’uso dei CAT tool e ridurre il costo delle traduzioni. L’idea alla base del progetto è infatti che le caratteristiche dei testi originali influiscano in maniera fondamentale sulla qualità del risultato finale, così come sul costo del servizio di traduzione. I contenuti sono suddivisi in cinque capitoli. Nel primo capitolo si analizzano gli studi sulla leggibilità dei testi, sulla semplificazione del linguaggio e sui linguaggi specialistici. Nel secondo capitolo si presenta il funzionamento dei CAT tool e si approfondiscono gli aspetti rilevanti per l’ottimizzazione del loro uso nella traduzione dei manuali di istruzioni. Nel terzo capitolo si combinano le conoscenze acquisite nei primi due capitoli e si propone un metodo di revisione dei manuali da sottoporre a traduzione. Tale revisione ha lo scopo di agevolare i CAT tool nel riconoscimento della somiglianza tra le frasi e di permettere di conseguenza un lavoro di traduzione a costi inferiori, senza però perdere di vista la qualità finale del manuale e la sua leggibilità e chiarezza. Nel quarto capitolo si espone l’applicazione pratica del metodo e si analizzano e discutono i risultati ottenuti. Nel quinto capitolo si traggono le conclusioni finali sul metodo proposto e i relativi risultati. Si propongono inoltre argomenti di riflessione e discussione che suggeriscono nuovi scenari e prospettive.
Resumo:
1944/1945 wurde in Cham-Hagendorn eine Wassermühle ausgegraben, die dank ihrer aussergewöhnlich guten Holzerhaltung seit langem einen prominenten Platz in der Forschung einnimmt. 2003 und 2004 konnte die Kantonsarchäologie Zug den Platz erneut archäologisch untersuchen. Dabei wurden nicht nur weitere Reste der Wassermühle, sondern auch Spuren älterer und jüngerer Anlagen geborgen: eine ältere und eine jüngere Schmiedewerkstatt (Horizont 1a/Horizont 3) sowie ein zweiphasiges Heiligtum (Horizonte 1a/1b). All diese Anlagen lassen sich nun in das in den neuen Grabungen erkannte stratigraphische Gerüst einhängen (s. Beil. 2). Dank der Holzerhaltung können die meisten Phasen dendrochronologisch datiert werden (s. Abb. 4.1/1a): Horizont 1a mit Schlagdaten zwischen 162(?)/173 und 200 n. Chr., Horizont 1b um 215/218 n. Chr. und Horizont 2 um 231 n. Chr. Ferner konnten in den neuen Grabungen Proben für mikromorphologische und archäobotanische Untersuchungen entnommen werden (Kap. 2.2; 3.11). In der vorliegenden Publikation werden der Befund und die Baustrukturen vorgelegt, (Kap. 2), desgleichen sämtliche stratifizierten Funde und eine umfassende Auswahl der 1944/1945 geborgenen Funde (Kap. 3). Dank anpassender Fragmente, sog. Passscherben, lassen sich diese zum Teil nachträglich in die Schichtenabfolge einbinden. Die mikromorphologischen und die archäobotanischen Untersuchungen (Kap. 2.2; 3.11) zeigen, dass der Fundplatz in römischer Zeit inmitten einer stark vom Wald und dem Fluss Lorze geprägten Landschaft lag. In unmittelbarer Nähe können weder eine Siedlung noch einzelne Wohnbauten gelegen haben. Die demnach nur gewerblich und sakral genutzten Anlagen standen an einem Bach, der vermutlich mit jenem Bach identisch ist, der noch heute das Groppenmoos entwässert und bei Cham-Hagendorn in die Lorze mündet (s. Abb. 2.4/1). Der antike Bach führte wiederholt Hochwasser ─ insgesamt sind fünf grössere Überschwemmungsphasen auszumachen (Kap. 2.2; 2.4). Wohl anlässlich eines Seehochstandes durch ein Überschwappen der Lorze in den Bach ausgelöst, müssen diese Überschwemmungen eine enorme Gewalt entwickelt haben, der die einzelnen Anlagen zum Opfer fielen. Wie die Untersuchung der Siedlungslandschaft römischer Zeit rund um den Zugersee wahrscheinlich macht (Kap. 6 mit Abb. 6.2/2), dürften die Anlagen von Cham-Hagendorn zu einer in Cham-Heiligkreuz vermuteten Villa gehören, einem von fünf grösseren Landgütern in diesem Gebiet. Hinweise auf Vorgängeranlagen fehlen, mit denen die vereinzelten Funde des 1. Jh. n. Chr. (Kap. 4.5) in Verbindung gebracht werden könnten. Diese dürften eher von einer der Überschwemmungen bachaufwärts weggerissen und nach Cham-Hagendorn eingeschwemmt worden sein. Die Nutzung des Fundplatzes (Horizont 1a; s. Beil. 6) setzte um 170 n. Chr. mit einer Schmiedewerkstatt ein (Kap. 2.5.1). Der Fundanfall, insbesondere die Schmiedeschlacken (Kap. 3.9) belegen, dass hier nur hin und wieder Geräte hergestellt und repariert wurden (Kap. 5.2). Diese Werkstatt war vermutlich schon aufgelassen und dem Verfall preisgegeben, als man 200 n. Chr. (Kap. 4.2.4) auf einer Insel zwischen dem Bach und einem Lorzearm ein Heiligtum errichtete (Kap. 5.3). Beleg für den sakralen Status dieser Insel ist in erster Linie mindestens ein eigens gepflanzter Pfirsichbaum, nachgewiesen mit Pollen, einem Holz und über 400 Pfirsichsteinen (Kap. 3.11). Die im Bach verlaufende Grenze zwischen dem sakralen Platz und der profanen Umgebung markierte man zusätzlich mit einer Pfahlreihe (Kap. 2.5.3). In diese war ein schmaler Langbau integriert (Kap. 2.5.2), der an die oft an Temenosmauern antiker Heiligtümer angebauten Portiken erinnert und wohl auch die gleiche Funktion wie diese gehabt hatte, nämlich das Aufbewahren von Weihegaben und Kultgerät (Kap. 5.3). Das reiche Fundmaterial, das sich in den Schichten der ersten Überschwemmung fand (s. Abb. 5./5), die um 205/210 n. Chr. dieses Heiligtum zerstört hatte, insbesondere die zahlreiche Keramik (Kap. 3.2.4), und die zum Teil auffallend wertvollen Kleinfunde (Kap. 3.3.3), dürften zum grössten Teil einst in diesem Langbau untergebracht gewesen sein. Ein als Glockenklöppel interpretiertes, stratifiziertes Objekt spricht dafür, dass die fünf grossen, 1944/1945 als Stapel aufgefundenen Eisenglocken vielleicht auch dem Heiligtum zuzuweisen sind (Kap. 3.4). In diesen Kontext passen zudem die überdurchschnittlich häufig kalzinierten Tierknochen (Kap. 3.10). Nach der Überschwemmung befestigte man für 215 n. Chr. (Kap. 4.2.4) das unterspülte Bachufer mit einer Uferverbauung (Kap. 2.6.1). Mit dem Bau eines weiteren, im Bach stehenden Langbaus (Kap. 2.6.2) stellte man 218 n. Chr. das Heiligtum auf der Insel in ähnlicher Form wieder her (Horizont 1b; s. Beil. 7). Von der Pfahlreihe, die wiederum die sakrale Insel von der profanen Umgebung abgrenzte, blieben indes nur wenige Pfähle erhalten. Dennoch ist der sakrale Charakter der Anlage gesichert. Ausser dem immer noch blühenden Pfirsichbaum ist es ein vor dem Langbau aufgestelltes Ensemble von mindestens 23 Terrakottafigurinen (s. Abb. 3.6/1), elf Veneres, zehn Matres, einem Jugendlichen in Kapuzenmantel und einem kindlichen Risus (Kap. 3.6; s. auch Kap. 2.6.3). In den Sedimenten der zweiten Überschwemmung, der diese Anlage um 225/230 n. Chr. zum Opfer gefallen war, fanden sich wiederum zahlreiche Keramikgefässe (Kap. 3.2.4) und zum Teil wertvolle Kleinfunde wie eine Glasperle mit Goldfolie (Kap. 3.8.2) und eine Fibel aus Silber (Kap. 3.3.3), die wohl ursprünglich im Langbau untergebracht waren (Kap. 5.3.2 mit Abb. 5/7). Weitere Funde mit sicherem oder möglichem sakralem Charakter finden sich unter den 1944/1945 geborgenen Funden (s. Abb. 5/8), etwa ein silberner Fingerring mit Merkurinschrift, ein silberner Lunula-Anhänger, eine silberne Kasserolle (Kap. 3.3.3), eine Glasflasche mit Schlangenfadenauflage (Kap. 3.8.2) und einige Bergkristalle (Kap. 3.8.4). Im Bereich der Terrakotten kamen ferner mehrere Münzen (Kap. 3.7) zum Vorschein, die vielleicht dort niedergelegt worden waren. Nach der zweiten Überschwemmung errichtete man um 231 n. Chr. am Bach eine Wassermühle (Horizont 2; Kap. 2.7; Beil. 8; Abb. 2.7/49). Ob das Heiligtum auf der Insel wieder aufgebaut oder aufgelassen wurde, muss mangels Hinweisen offen bleiben. Für den abgehobenen Zuflusskanal der Wassermühle verwendete man mehrere stehen gebliebene Pfähle der vorangegangenen Anlagen der Horizonte 1a und 1b. Obwohl die Wassermühle den 28 jährlichen Überschwemmungshorizonten (Kap. 2.2) und den Funden (Kap. 4.3.2; 4.4.4; 45) zufolge nur bis um 260 n. Chr., während gut einer Generation, bestand, musste sie mindestens zweimal erneuert werden – nachgewiesen sind drei Wasserräder, drei Mühlsteinpaare und vermutlich drei Podeste, auf denen jeweils das Mahlwerk ruhte. Grund für diese Umbauten war wohl der weiche, instabile Untergrund, der zu Verschiebungen geführt hatte, so dass das Zusammenspiel von Wellbaum bzw. Sternnabe und Übersetzungsrad nicht mehr funktionierte und das ganze System zerbrach. Die Analyse von Pollen aus dem Gehhorizont hat als Mahlgut Getreide vom Weizentyp nachgewiesen (Kap. 3.11.4). Das Abzeichen eines Benefiziariers (Kap. 3.3.2 mit Abb. 3.3/23,B71) könnte dafür sprechen, dass das verarbeitete Getreide zumindest zum Teil für das römische Militär bestimmt war (s. auch Kap. 6.2.3). Ein im Horizont 2 gefundener Schreibgriffel und weitere stili sowie eine Waage für das Wägen bis zu 35-40 kg schweren Waren aus dem Fundbestand von 1944/1945 könnten davon zeugen, dass das Getreide zu wägen und zu registrieren war (Kap. 3.4.2). Kurz nach 260 n. Chr. fiel die Wassermühle einem weiteren Hochwasser zum Opfer. Für den folgenden Horizont 3 (Beil. 9) brachte man einen Kiesboden ein und errichtete ein kleines Gebäude (Kap. 2.8). Hier war wohl wiederum eine Schmiede untergebracht, wie die zahlreichen Kalottenschlacken belegen (Kap. 3.9), die im Umfeld der kleinen Baus zum Vorschein kamen. Aufgrund der Funde (Kap. 4.4.4; 4.5) kann diese Werkstatt nur kurze Zeit bestanden haben, höchstens bis um 270 n. Chr., bevor sie einem weiteren Hochwasser zum Opfer fiel. Von der jüngsten Anlage, die wohl noch in römische Zeit datiert (Horizont 4; Beil. 10), war lediglich eine Konstruktion aus grossen Steinplatten zu fassen (Kap. 2.9.1). Wozu sie diente, muss offen bleiben. Auch der geringe Fundanfall spricht dafür, dass die Nutzung des Platzes, zumindest für die römische Zeit, allmählich ein Ende fand (Kap. 4.5). Zu den jüngsten Strukturen gehören mehrere Gruben (Kap. 2.9.2), die vielleicht der Lehmentnahme dienten. Mangels Funden bleibt ihre Datierung indes ungewiss. Insbesondere wissen wir nicht, ob sie noch in römische Zeit datieren oder jünger sind. Spätestens mit der fünften Überschwemmung, die zur endgültigen Verlandung führte und wohl schon in die frühe Neuzeit zu setzen ist, wurde der Platz aufgelassen und erst mit dem Bau der bestehenden Fensterfabrik Baumgartner wieder besetzt.
Resumo:
La Sequenza Sismica Emiliana del 2012 ha colpito la zona compresa tra Mirandola e Ferrara con notevoli manifestazioni cosismiche e post-sismiche secondarie, soprattutto legate al fenomeno della liquefazione delle sabbie e alla formazione di fratturazioni superficiali del terreno. A fronte del fatto che la deformazione principale, osservata tramite tecniche di remote-sensing, ha permesso di individuare la posizione della struttura generatrice, ci si è interrogati sul rapporto tra strutture profonde e manifestazioni secondarie superficiali. In questa tesi è stato svolto un lavoro di integrazione di dati a varia scala, dalla superficie al sottosuolo, fino profondità di alcuni chilometri, per analizzare il legame tra le strutture geologiche che hanno generato il sisma e gli effetti superficiali percepiti dagli osservatori. Questo, non solo in riferimento allo specifico del sisma emiliano del 2012, ma al fine di trarre utili informazioni in una prospettiva storica e geologica sugli effetti di un terremoto “tipico”, in una regione dove le strutture generatrici non affiorano in superficie. Gli elementi analizzati comprendono nuove acquisizioni e rielaborazioni di dati pregressi, e includono cartografie geomorfologiche, telerilevamenti, profili sismici a riflessione superficiale e profonda, stratigrafie e informazioni sulla caratterizzazione dell’area rispetto al rischio sismico. Parte dei dati di nuova acquisizione è il risultato dello sviluppo e la sperimentazione di metodologie innovative di prospezione sismica in corsi e specchi d’acqua continentali, che sono state utilizzate con successo lungo il Cavo Napoleonico, un canale artificiale che taglia ortogonalmente la zona di massima deformazione del sisma del 20 Maggio. Lo sviluppo della nuova metodologia di indagine geofisica, applicata ad un caso concreto, ha permesso di migliorare le tecniche di imaging del sottosuolo, oltre a segnalare nuove evidenze co-sismiche che rimanevano nascoste sotto le acque del canale, e a fornire elementi utili alla stratigrafia del terreno. Il confronto tra dati geofisici e dati geomorfologici ha permesso di cartografare con maggiore dettaglio i corpi e le forme sedimentarie superficiali legati alla divagazione fluviale dall’VIII sec a.C.. I dati geofisici, superficiali e profondi, hanno evidenziato il legame tra le strutture sismogeniche e le manifestazioni superficiali seguite al sisma emiliano. L’integrazione dei dati disponibili, sia nuovi che da letteratura, ha evidenziato il rapporto tra strutture profonde e sedimentazione, e ha permesso di calcolare i tassi geologici di sollevamento della struttura generatrice del sisma del 20 Maggio. I risultati di questo lavoro hanno implicazioni in vari ambiti, tra i quali la valutazione del rischio sismico e la microzonazione sismica, basata su una caratterizzazione geomorfologico-geologico-geofisica dettagliata dei primi 20 metri al di sotto della superficie topografica. Il sisma emiliano del 2012 ha infatti permesso di riconoscere l’importanza del substrato per lo sviluppo di fenomeni co- e post-sismici secondari, in un territorio fortemente eterogeneo come la Pianura Padana.
Resumo:
La tesi nasce dalla volontà di agire sull’area della Darsena di Ravenna, strategica in quanto via d’acqua navigabile che congiunge il mare con il centro città ma dal potenziale ancora poco sfruttato. Il progetto è studiato per essere inserito come catalizzatore urbano, creando spazi di interazione attraverso elementi modulari galleggianti e riconfigurabili per adattarsi a programmi d’uso flessibili; tali elementi si aggregano formando un sistema che ristruttura lo spazio dell’attuale banchina, cambiandone la percezione da barriera a waterfront urbano. La necessità di ottenere una struttura con capacità di crescita e flessibilità programmatica sfocia in un approccio modulare seguendo il principio massima variazione/minimo numero di elementi i cui principi aggregativi si basano sulla tassellazione “Cairo”. Vengono studiate le possibilità di incorporare variazione ed eterogeneità all’interno del sistema senza comprometterne la modularità fino ad integrare percorsi multilivello. La definizione delle morfologie delle parti che compongono i moduli si basano sullo studio dei principi di galleggiamento, stabilità e yacht design: a partire dalla forma dello scafo adatta ai principi di tiling definiti in precedenza, tutte le parti che compongono le varie tipologie di modulo sono progettate cercando continuità e integrazione tettonica (geometrica, strutturale, funzionale e percettiva). Vengono proposte soluzioni integrate sia per le problematiche tipiche delle strutture galleggianti sia per l’inserimento di attività all’interno della soluzione architettonica. Vengono prototipati di una serie di moduli, scelti in modo da dimostrare i principi di ricombinazione, continuità, modularità e tiling.