958 resultados para Conto, Oralidade e Fábula
Resumo:
Il saggio, genere di confine (Grenzgänger-Textsorte) per eccellenza, la cui indefinibilità è topos, si profila tuttora come terra incognita nell’àmbito delle scienze della traduzione. La presente ricerca mira a enucleare un modello traduttologico olistico per la traduzione del saggio. In feconda alternativa alla dicotomia approccio ermeneutico-letterario vs. approccio linguistico, la prospettiva teorico-metodologica del lavoro integra linee di ricerca filologico-letterarie e linguistico-testuali. Tale sguardo multiprospettico, l’unico in grado di dar conto della complessità del genere, permette di collocare operativamente il saggio e le sue varianti testuali principali (Textsortenvarianten), dal saggio specialistico (fachlicher Essay) al saggio poetico (poetischer Essay) sul continuum delle forme testuali comprese entro le dimensioni (scientifica, pragmatica, estetica) del Denkhandeln. Dalla produttiva intersezione tra la riflessione dell’Essayforschung classica e contemporanea e le più recenti indagini linguistico-testuali sulle forme del saggismo scientifico, si perviene alla formulazione di una definitio per proprietates del saggio. Segue lo sviluppo di un modello traduttologico olistico, che tesaurizza il proprio paradigma antropologico, la riflessione filosofico-ermeneutica e le acquisizioni della linguistica testuale, articolandosi attraverso le fasi ricorsive e interagenti di ricezione olistica, analisi poetico-ermeneutica e retorico-stilistica, progettazione linguistico-cognitiva, formulazione e revisione. L’approccio olistico così delinatosi viene quindi vagliato nella sua proficuità in sede applicativa. Funge da banco di prova un vero e proprio “caso limite” per complessità e qualità letteraria, ovvero il «poetischer Essay» del poeta, saggista e traduttore Durs Grünbein, una delle voci più acclamate nel panorama contemporaneo. La sezione pratica presenta infine l’inedita traduzione italiana dei saggi grünbeiniani Den Körper zerbrechen e Die Bars von Atlantis.
Resumo:
Desde los plantemientos que entienden la mediación como una mera relación de hecho, se avanzará hasta la consideración de la misma como contrato. Para ello, se separarán las categorías o institutos que no se consideren adecuados a la naturaleza de la mediación, profundizando en sus estructuras más básicas, hasta llegar a la consideración contractual de la misma. Desde el contrato, se tratarán los elementos de sinalagmaticidad, principalidad, onerosidad o consensualidad, entre otras circunstancias, esenciales o naturales, antes de abordar la que quizá sea la circunstancia que merezca un tratamiento más especial: el riesgo aleatorio de la mediación. Además, al tratarse de contratos infrarregulados, la dimensión económica y efectiva de los mismos no sólo permite la reflexión, sino que impulsa la crítica y, si bien no puede ofrecer por sí misma respuestas, sí puede ayudar a descartar opciones menos adecuadas en cada caso. De todo lo anterior se concluirá una única categoría contractual, clara y precisa, enfrentada también a un análisis económico de cada uno de sus elementos, así como una confrontación con las propuestas, sobre los mismos supuestos, del Derecho contractual europeo. Así, se tratará de evaluar, en cada paso, que las conclusiones parciales sobre las que se asienten ulteriores estadios de la investigación no sólo resulten sistemáticas, sino también idóneas para alcanzar la finalidad de contrato y, a su través, la de las partes. El contrato resultante se encontrará categorizado, pero no por ello regulado. De ahí la necesidad, última, de ubicarlo en una categoría contractual más amplia que pueda informar dichos caracteres con una regulación suficiente, desde la que establecer una normatividad real.
Resumo:
Nell’ottica di uno sviluppo ecosostenibile, la progettazione e la realizzazione di imballaggi alimentari devono necessariamente tener conto del destino del materiale al termine della sua vita utile. Negli ultimi anni, infatti, il considerevole incremento dei volumi dei rifiuti plastici e le difficoltà legate al loro smaltimento e riciclo hanno rappresentato le forze motrici per l’individuazione di soluzioni concrete ai problemi connessi alla gestione di tali scarti. Lo sviluppo di nuovi polimeri che soddisfino requisiti di degradabilità, compatibilità con l’ambiente di smaltimento e rilascio di prodotti di degradazione con un basso livello di tossicità, oltre che possedere proprietà fisico-meccaniche adatte per l’applicazione richiesta, offre una possibile soluzione a tali questioni ad oggi irrisolte. Tra i polimeri biodegradabili, il poli(butilene 1,4-cicloesandicarbossilato) (PBCE) è un materiale di grande interesse, in quanto la presenza dell’anello alifatico nell’unità monomerica conferisce al materiale un’elevata cristallinità, una notevole stabilità termica e interessanti proprietà meccaniche. Per contro, l’eccessiva rigidità e fragilità del materiale e la sua lenta cinetica di biodegradazione lo rendono poco versatile e ne limitano notevolmente la gamma di possibili applicazioni. Per tali ragioni, si è scelto di incentrare il presente lavoro sullo sviluppo di copolimeri a base di PBCE, dotati sia di migliori proprietà meccaniche che di una maggiore velocità di degradazione. Lo scopo previsto è stato raggiunto mediante sintesi di due sistemi di copolimeri a blocchi contenenti eteroatomi lungo la catena principale.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
In questa tesi proponiamo una rivisitazione del classico criterio di Jeans per l'instabilità gravitazionale di una nube di gas autogravitante, tenendo conto anche degli effetti viscosi e della presenza di una forza di Coriolis. Si dimostra che l'aggiunta di tali presenze, pur non alterando la soglia critica di Jeans, è generalmente stabilizzante. Infine si evidenzia un'interessante analogia, per modellamento matematico, tecniche e terminologie, fra il collasso gravitazionale e quello chemiotattico
Resumo:
Poiché la diagnosi differenziale degli episodi parossistici notturni è affidata alla VEPSG, tenendo conto dei limiti di tale metodica, il progetto attuale ha lo scopo di definire la resa diagnostica di strumenti alternativi alla VEPSG: anamnesi, home-made video ed EEG intercritico. Sono stati reclutati consecutivamente 13 pazienti, afferiti al nostro Dipartimento per episodi parossistici notturni. Ciascun paziente è stato sottoposto ad un protocollo diagnostico standardizzato. A 5 Medici Esperti in Epilessia e Medicina del Sonno è stato chiesto di formulare un orientamento diagnostico sulla base di anamnesi, EEG intercritico, home-made video e VEPSG. Attraverso l’elaborazione degli orientamenti diagnostici è stata calcolata la resa diagnostica delle procedure esaminate, a confronto con la VEPSG, attraverso il concetto di “accuratezza diagnostica”. Per 6 pazienti è stato possibile porre una diagnosi di Epilessia Frontale Notturna, per 2 di parasonnia, in 5 la diagnosi è rimasta dubbia. L’accuratezza diagnostica di ciascuna procedura è risultata moderata, con lievi differenze tra le diverse procedure (61.5% anamnesi; 66% home-made video; 69,2 % EEG intercritico). E’ essenziale migliorare ulteriormente l’accuratezza diagnostica di anamnesi, EEG intercritico ed home-made video, che possono risultare cruciali nei casi in cui la diagnosi non è certa o quando la VEPSG non è disponibile.
Resumo:
La tesi si propone come informativa dei principali metodi di produzione di energia rinnovabile e su come ottimizzare tali produzioni tenendo conto dei vincoli imposti dal sistema elettrico all'immissione in rete di potenza elettrica intermittente. Viene proposto, in particolare, l'accumulo di energia sotto forma di aria compressa (sistema CAES).
Resumo:
Il presente lavoro è stato svolto presso la struttura di Fisica Medica dell'Azienda Ospedaliera IRCCS "Arcispedale S. Maria Nuova" di Reggio Emilia e consiste nello sviluppo di un sistema per l'ottimizzazione della dose in Radioterapia tramite dose-painting basato sui voxel. Il dose painting è una tecnica di pianificazione del trattamento di radioterapia che si basa sull'assegnazione o ridistribuzione della dose secondo le informazioni biologiche e metaboliche che i moderni sistemi di imaging sono in grado di fornire. La realizzazione del modulo di calcolo BioOPT è stata possibile grazie all'utilizzo dei due software open-source Plastimatch e CERR, specifici per l'elaborazione e la registrazione di immagini mediche di diversi tipi e formati e per la gestione, la modifica e il salvataggio di piani di trattamento di radioterapia creati con la maggior parte dei software commerciali ed accademici. Il sistema sviluppato è in grado di registrare le immagini relative ad un paziente, in generale ottenute da diverse tipologie di imaging e acquisite in tempi diversi ed estrarre le informazioni biologiche relative ad una certa struttura. Tali informazioni verranno poi utilizzate per calcolare le distribuzioni di dose "ottimale" che massimizzano il valore delle funzioni radiobiologiche utilizzate per guidare il processo di redistribuzione della dose a livello dei voxel (dose-painting). In questo lavoro il modulo è stato utilizzato principalmente per l'ottimizzazione della dose in pazienti affetti da Glioblastoma, un tumore cerebrale maligno tra i più diffusi e mortali. L'ottimizzatore voxel-based, infatti, è stato sviluppato per essere utilizzabile all'interno di un progetto di ricerca finanziato dal Ministero della Salute per la valutazione di un programma di terapia che include l'uso di un innovativo acceleratore lineare ad alto rateo di dose per la cura di tumori cerebrali in fase avanzata. Al fine di migliorare il trattamento radiante, inoltre, lo studio include la somministrazione della dose tramite dose-painting con lo scopo di verificarne l'efficacia. I risultati ottenuti mostrano che tramite il modulo sviluppato è possibile ottenere distribuzioni di dose eterogenee che tengono conto delle caratteristiche biologiche intratumore stimate a partire dalle immagini multimodali. Inoltre il sistema sviluppato, grazie alla sua natura 'open', è altamente personalizzabile a scopi di ricerca e consente di simulare distribuzioni di dose basate sui voxel e di confrontarle con quelle ottenute con i sistemi commerciali ad uso clinico, che non consentono questo tipo di ottimizzazioni.
Resumo:
In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.
Resumo:
Il presente lavoro, senza alcuna pretesa di esaustività, ha inteso ricostruire il quadro normativo relativo alla disciplina dell’autotrasporto merci su strada. In primis, ci si è soffermata sugli aspetti generali del settore, approfondendo, in seguito, la normativa europea e nazionale. Tale excursus, ha permesso di riscontrare i molteplici interventi legislativi susseguitisi in ambito di regolamentazione dell’autotrasporto merci su strada, evidenziando i passaggi più significativi in tema di riordino della disciplina. Si è pertanto proceduto all’analisi del primo importante intervento legislativo del settore, intercorso ad opera della Legge n. 298/1974, disciplinante gli aspetti di natura pubblicistica del settore. Tale provvedimento, ha un apposito Albo Nazionale per gli autotrasportatori di merci per conto terzi, identificando i requisiti necessari per l’accesso al mercato e l’esercizio della professione di autotrasportatore di cose in conto terzi. Importati novità vengono introdotte con il D.lgs. 286/2005, provvedimento che ha portato al raggiungimento del processo di liberalizzazione del mercato. Successivamente si è proceduto a riscontrare l’intensa produzione normativa, posta a regolamentazione del settore, che nella ricerca di un equilibrio tra esigenze di mercato e corretto esercizio dell’attività di autotrasporto, si propone di addivenire al raggiungimento degli obiettivi comunitari di armonizzazione della disciplina e qualificazione del settore dell’autotrasporto. Significativi, in tal senso, i recenti interventi di riforma posti in essere con il “Pacchetto comunitario del 21 ottobre 2009” ( Regolamento (CE) 1071/2009 e Regolamento (CE) 1072/2009. Da ultimo, al fine di verificare le eventuali debolezze del sistema normativo vigente, in relazione al raggiungimento degli obiettivi comunitari suesposti, si è ritenuto di indirizzare la ricerca verso un’attenta valutazione dell’efficienza dei modelli di trasporto merci su strada, verificandone l’impatto in termini di maggior incidenza sui costi esterni derivanti dal trasporto. A tal proposito, particolare attenzione è stata rivolta anche alla disciplina del trasporto in conto proprio.
Resumo:
Il progetto per l’area “Parco-Pineta” si confronta con tre differenti aspetti che è apparso indispensabile prendere in considerazione: il Masterplan di Jesolo di Kenzo Tange che ne ha contrassegnato la funzione a parco tematico, la storia del luogo che ha visto fronteggiarsi su queste terre italiani e austriaci negli atroci avvenimenti della Grande Guerra, e infine i limiti naturali dell’area, quali il fiume Piave, gli argini e i canali di bonifica che hanno ostacolato ma anche arricchito l’intero sistema. Obiettivo del progetto è la proposta di un Parco della memoria che attragga i visitatori durante tutto l’anno e che permetta di riportare alla luce le tracce abbandonate degli avvenimenti bellici. Una struttura che, tenendo conto dei segni presenti nell’area, sappia oltrepassare i limiti geografici e temporali, dilettando e facendo riflettere al contempo. Il Parco, costituito da un lungo percorso rievocante la trincea militare, condurrà il visitatore alla visione dei bunker ancora presenti nell’area e alla conoscenza della storia del luogo, attraverso tagli, passerelle, risalite e snodi labirintici.
Resumo:
Il progetto di tesi si sviluppa a partire dalla proposta di espansione lineare della città di Bogotá, lungo un asse infrastrutturale che attraversa diversi comuni vicini alla città. Il tema principale del lavoro di tesi è relativo al confronto con uno dei limiti principali di questa espansione: il Rio Bogotà. L'obiettivo è quello di risolvere a livello urbano il rapporto di tale elemento naturale con l'edificato, in particolare il grande edificio pubblico e le abitazioni. Questo sarà reso possibile attraverso lo studio di valide soluzioni strutturali che tengano conto dei problemi derivanti da una zona fortemente sismica e soggetta ad inondazioni.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
Questo studio indaga la tradizione storiografica sulle regine seleucidi di III secolo a.C. - da Laodice I fino all’ascesa al trono di Laodice III - alla luce delle testimonianze documentarie. L’intento è stabilire l’orizzonte politico dell’azione delle regine nel momento meno conosciuto e più buio della storia del regno di Siria. Il III secolo seleucidico è infatti un periodo caratterizzato da incertezza nella ricostruzione evenemenziale e nell’analisi delle dinamiche sociopolitiche, soprattutto a causa dell’interesse relativo e limitato delle fonti storiografiche antiche a noi giunte relativamente alle vicende della monarchia seleucidica precedenti l’avvento di Antioco III il Grande. In questo panorama rappresenta un’eccezione il caso di Laodice I, che è al centro di un rilevante numero di testimonianze. Tenendo conto della differente natura delle fonti e della complessità del contesto evenemenziale, non sempre ricostruibile, è stata studiata la figura di Laodice I nell’intento di comprendere il paradigma di regalità femminile stabilito dalle azioni della regina, e quindi l’influenza di tale paradigma sulla generazione seleucide successiva. La ricerca si articola in tre sezioni, legate agli eventi principali del III secolo seleucide che vedono coinvolta la regina. La prima parte è dedicata all’attività di Laodice I dopo il secondo matrimonio di Antioco II con la tolemaica Berenice. La seconda parte riguarda il ruolo di Laodice nei complessi eventi che seguirono la morte del marito Antioco II nel 246 e nella Terza Guerra Siriaca, che vide la regina a fianco del figlio Seleuco II contrapporsi a Tolemeo III e Berenice Sira. La terza sezione si occupa dell’azione di Laodice I nella Guerra Fraterna al fianco di Antioco Ierace contro Seleuco II e Laodice II. Nella conclusione si riflette sull’influenza delle azioni politiche di Laodice I sulla scelta di Antioco III di sposare la cugina Laodice III, prima principessa del Ponto entrata nella dinastia regnante.
Resumo:
Il Sisma dell’Emilia Romagna ha cambiato di colpo l’assetto territoriale, gli edifici e soprattutto le dotazioni territoriali. L’argomento della tesi di laurea si inserisce nell'ambito delle iniziative mirate a fare fronte all'evento sismico, in particolare riguarda la costruzione dello strumento del Piano dei Servizi del Comune di Cento, quale base conoscitiva e di lavoro per permettere all'amministrazione comunale di procedere all'aggiornamento dei propri strumenti urbanistici nella fase di redazione del Piano di Ricostruzione. Le dotazioni pubbliche sono state notevolmente modificate dall'evento sismico, sconvolgendo tutti i sistemi esistenti. La tesi di laurea, sviluppata in collaborazione con il comune di Cento e la Regione Emilia Romagna, ha come obiettivo l’analisi delle dotazioni territoriali al fine di studiare un piano urbanistico efficace e migliorativo, integrato nel Piano della Ricostruzione, strumento con il quale si può intervenire per ricreare spazi pubblici. Il progetto, che presenta aspetti sia di ricerca che operativi, si è sviluppato effettuando un analisi e un confronto, tra stato pre-sisma e stato post-sisma, di alcuni ambiti d’interesse pubblico: il servizio scolastico, le dotazioni sportive, il sistema del verde pubblico e il sistema della sosta. Si è proceduto con approfondimenti delle tematiche principali che tenessero conto dei principi qualitativi espressi nei piani dei Servizi così da ottenere una base conoscitiva più realistica e maggiormente rispondente alle esigenze della cittadinanza. Il lavoro ha permesso di operare secondo criteri di studio sperimentali, di tipo qualitativo, valutandone l’utilità nelle pianificazioni future del Comune a partire dal Piano della Ricostruzione e dalla redazione della Condizione Limite d’Emergenza. Infine le conoscenze acquisite sono state applicate in alcune aree di studio così da verificarne la possibilità di utilizzo. Si è valutata la complessità dei rapporti vigenti tra i vari sistemi delle dotazioni pubbliche superando il limite di una pianificazione unicamente settoriale.