1000 resultados para Oratorio della Madonna delle Grazie (Church).
Resumo:
Nell’ambito dello studio della vulnerabilità delle strutture in muratura la modellazione dei maschi murari e la conseguente verifica avviene convenzionalmente considerando tali partizioni come indipendenti, ovvero suddividendo, dapprima,i maschi murari a seconda della loro disposizione spaziale nei confronti della direzione della azione sismica e, successivamente, considerando il contributo dei maschi murari come agenti “in parallelo”.In tale scenario, la modellazione al continuo rende la definizione del singolo maschio murario non banale, in quanto tale tipologia di modellazione vede la geometria dell’edificio come un “unicum” strutturale.Questa dissertazione si prefigge di qualificare e quantificare le differenze scaturite dalla diversa suddivisione dei maschi e delle zone di interfaccia tra diverse pareti murarie, valutando il comportamento del maschio stesso in termini di taglio e sforzo normale ottenuti mediante un’analisi statica non lineare (Pushover). Due modelli ispirati a strutture reali sono analizzati a tal proposito: - Il prototipo testato nel 1994 nel Laboratorio dell’Università di Pavia (modello benchmark n°4). - La scuola “P.Capuzi” di Visso (MC), edificio monitorato permanentemente dall’Osservatorio Sismico delle Strutture del Dipartimento di Protezione Civile [3] e ad oggi demolito (modello benchmark n°5). Il lavoro qui presentato si inserisce in un più ampio programma di ricerca svolto in sinergia da varie unità coinvolte nel progetto ReLUIS 2017/2108 – Linea Strutture in Muratura [1][2] e avente come oggetto l’analisi di strutture benchmark per la valutazione dell’affidabilità di codici di calcolo. I modelli sono stati studiati eseguendo analisi di tipo statico non lineare (Pushover) con distribuzione di forze proporzionale alle masse.
Resumo:
La tesi si propone di descrivere le diverse fasi storiche attraverso le quali si è evoluta la struttura narrativa del personaggio di Perceval nei primi due secoli della sua genesi nella letteratura romanza ed europea. Il personaggio ha avuto un notevole successo dal Medioevo di Chrétien of Troyes fino all'età moderna e contemporanea. Lo studio filologico dell'evoluzione del personaggio all'interno della galassia testuale e delle forme della sua tradizione permette di delineare un quadro composito, in cui è possibile rintracciare la genesi e lo sviluppo di importanti fenomeni storico-letterari, destinati a influenzare la letteratura europea e occidentale nel lungo periodo. Una seconda parte è invece dedicata allo studio della struttura letteraria e narrativa del personaggio rintracciabile all'interno della lettura delle differenti opere che tramandano le versioni della storia di Perceval. Infine, la ricerca si concentra su un caso di studio in grado di illuminare la persistenza delle strutture sopra individuate: le Prophecies de Merlin, romanzo arturiano della seconda metà del XIII secolo, sono infatti espressione delle modalità in cui la storia della vita di Perceval viene messa in scena in testi che non si concentrano direttamente sulla sua biografia. All'interno della tradizione delle Prophecies de Merlin, il profeta del regno arturiano di cui sono raccolte numerose profezie, il caso del Livre d'Helias et Perceval è emblematico. Il Livre d'Helias et Perceval delle Prophecies de Merlin, accompagnato da uno studio filologico che comprende un'edizione critica, uno studio completo della tradizione e un'analisi linguistica, si propone quindi come caso di studio ideale per analizzare la fortuna e l'evoluzione del personaggio di Perceval nel Medioevo romanzesco ed europeo.
Resumo:
Allostery is a phenomenon of fundamental importance in biology, allowing regulation of function and dynamic adaptability of enzymes and proteins. Despite the allosteric effect was first observed more than a century ago allostery remains a biophysical enigma, defined as the “second secret of life”. The challenge is mainly associated to the rather complex nature of the allosteric mechanisms, which manifests itself as the alteration of the biological function of a protein/enzyme (e.g. ligand/substrate binding at the active site) by binding of “other object” (“allos stereos” in Greek) at a site distant (> 1 nanometer) from the active site, namely the effector site. Thus, at the heart of allostery there is signal propagation from the effector to the active site through a dense protein matrix, with a fundamental challenge being represented by the elucidation of the physico-chemical interactions between amino acid residues allowing communicatio n between the two binding sites, i.e. the “allosteric pathways”. Here, we propose a multidisciplinary approach based on a combination of computational chemistry, involving molecular dynamics simulations of protein motions, (bio)physical analysis of allosteric systems, including multiple sequence alignments of known allosteric systems, and mathematical tools based on graph theory and machine learning that can greatly help understanding the complexity of dynamical interactions involved in the different allosteric systems. The project aims at developing robust and fast tools to identify unknown allosteric pathways. The characterization and predictions of such allosteric spots could elucidate and fully exploit the power of allosteric modulation in enzymes and DNA-protein complexes, with great potential applications in enzyme engineering and drug discovery.
Resumo:
A partire dagli anni '20 del XX secolo, con la partecipazione a esposizioni internazionali, l'arte cinese ha intrapreso un'indagine approfondita sulla propria ricchezza e complessità culturale, inserendosi progressivamente nel contesto del panorama artistico globale. In questo quadro, l'adesione della Cina alla Biennale di Venezia si configura come sintesi della ricchezza culturale cinese, in cui l'impiego di opere connesse ai "Caratteri cinesi" si rivela uno strumento di divulgazione privilegiato per la propria cultura. Un'analisi dettagliata del percorso espositivo della Cina evidenzia tre momenti di rilievo legati ai "Caratteri cinesi": il "Book from the Sky" di Xu Bing (1993), "The Boat" di Hsiao Chin (2000) e "United Nations" di Gu Wenda (2017). Il presente lavoro si intende di esaminare criticamente queste tre esperienze, indagando l'interazione tra l'esplorazione culturale e la sua rappresentazione nell'ambito specifico della Biennale. Attraverso un'analisi fondata sul dibattito relativo all'arte globale e al multiculturalismo, all'arte contemporanea cinese e alla sua proiezione internazionale, nonché sullo studio della storia delle partecipazioni cinesi alle mostre internazionali e alla Biennale di Venezia a partire dal XX secolo, la ricerca si concentra sulle suddette partecipazioni legate ai "Caratteri cinesi", valutando l'impatto dei principi curatoriali della Biennale su di esse. Viene esplorato altresì il modo in cui gli artisti hanno investigato e manifestato le loro riflessioni culturali attraverso le loro opere, contribuendo al dialogo sulla diversità culturale e sull'articolazione di valori dalla prospettiva dell'arte globale contemporanea. L'analisi si sofferma sulle strategie culturali realizzate dagli artisti nel contesto delle esposizioni globalizzate, evidenziando uno stato di contaminazione culturale. L'invito è quello ad una riflessione critica e a una valutazione del suo impatto sulla reinvenzione del contributo cinese alla narrazione futura della storia dell'arte globale. In tal modo, lo studio apre nuovi orizzonti investigativi, proponendo direzioni future di ricerca.
Resumo:
Ancora poco è stato detto riguardo alla traduzione del trattato latino Rerum memorandarum libri di Petrarca compiuta da Giuseppe Fracassetti (1802-1883) nel 1860 e rimasta inedita. Fracassetti, avvocato e poliedrico studioso di Fermo, si dedicò all'edizione e al volgarizzamento di diverse opere latine di Petrarca – nello specifico, del trattato De sui ispius et multorum ignorantia reso in Della propria ed altrui ignoranza nel 1858, delle lettere Familiari (il cui corpus fu dato alle stampe prima nella versione latina, nel 1859-1863, e poi in traduzione nel 1863-1867) e Senili (stampate nel biennio 1869-1870 solo in italiano) – ma non pubblicò il suo lavoro sui Rerum memorandum libri. A partire dalla ricostruzione del processo editoriale e poi della fortuna delle opere edite, questa tesi propone un approfondimento sulle carte autografe – conservate presso la biblioteca Civica "Romolo Spezioli" di Fermo – che documentano la traduzione di Fracassetti dei Rerum memorandarum libri, i suoi Libri delle cose memorabili. Il lavoro presenta inoltre un focus sulla lingua adottata e avvia un'indagine sistematica sulle fonti latine utilizzate – e non dichiarate – dallo studioso fermano, attraverso lo studio delle annotazioni marginali appuntate da Fracassetti sui fogli. L’elaborato dà luce a questa traduzione inedita e incompleta – si interrompe infatti al terzo libro – pubblicandone il testo (corredato di un apparato in doppia fascia che registra da un lato la stratigrafia correttoria e, dall’altro, le postille presenti sulle carte).
Resumo:
A fronte dei numerosi eventi di perdita di servizio o crolli di ponti degli ultimi anni, il loro adeguamento e/o miglioramento è divenuto prioritario. Con questo spirito si è posta l’attenzione sui ponti Gerber, descrivendo dapprima le ragioni tecniche e storiche del loro sviluppo, i problemi di degrado, ed infine i modelli disponibili per il calcolo della portanza delle selle. Consapevoli della ridotta durabilità di queste opere, e del fatto che le cerniere Gerber sono state ufficialmente classificate come punti critici da attenzionare ai sensi delle nuove “Linee guida per la classificazione e gestione del rischio, la valutazione della sicurezza ed il monitoraggio dei ponti esistenti” del 2020, sono stati approfonditi due scenari tipici di intervento su casi reali di ponti che presentassero giunti Gerber particolarmente ammalorati. La soluzione più conservativa e meno invasiva prevede il mantenimento in essere delle selle e si basa sul by-pass dei giunti stessi ottenuto attraverso il meccanismo “leva” che si instaura in un sistema di travi metalliche posto a sostegno delle travi d’impalcato. Quella di solidarizzare le travi rendendo il sistema iperstatico è invece la seconda soluzione analizzata. La chiusura delle selle consente di ottenere gli effetti benefici propri delle strutture iperstatiche, a spese comunque della nascita di sollecitazioni all’interno della trave originariamente compresa tra le cerniere. Si è infine accennato a ipotesi di miglioramento sismico dell’opera, trattato con la cucitura delle selle Gerber stesse, che hanno consentito all’impalcato di avere un comportamento monolitico. Il presente elaborato costituisce dunque un punto d’incontro tra i modelli teorici con cui si studiano i degradi e la capacità portante residua delle selle, e le soluzioni progettuali di intervento effettivamente utilizzate e disponibili per la messa in sicurezza di ponti con caratteristiche simili.
Resumo:
Decolonizzare il progetto di riqualificazione interrogandosi su chi siano i reali beneficiari dell’intervento, in particolar modo quando si opera all’interno dei délaissés o del Terzo paesaggio (Patrick Bouchain, Forêt des délaissés-Gilles Clemant, Manifesto del Terzo paesaggio), non è solo atto speculativo ma anche etico-politico per un’architettura che ha il dovere di confrontarsi prolificamente con le sfide della contemporaneità. Si sono analizzate le origini e i motivi alla base del pensiero coloniale, oggetto di studio dei post-colonial studies. Gli studi decoloniali cercano di offrire nuove chiavi di lettura per l’individuazione della permanenza delle categorie coloniali nella descrizione dei processi promuovendone la decostruzione. Si evidenzia quindi come la causa ambientalista fatichi a sussistere finché non diventa intersezionale allo sradicamento dei suddetti paradigmi. Si elabora un progetto interspecie nel quale l’architettura si volge a tutti gli esseri viventi, schierandosi apertamente contro coloro che, in nome del profitto, continuano a degradare i beni comuni. Non si tratta di un revival delle esperienze utopiche, ma una presa di coscienza che trasforma la speculazione in pragmatismo, attraverso la messa in discussione di pratiche consolidate all’interno di determinati contesti. Come caso applicativo si è scelto quello dell’ Ex cementificio Marchino, uno fra i tanti esempi di archeologia industriale presenti a Prato. Il complesso abbandonato da più di 60 anni, vede la presenza di fenomeni riappropriativi da parte dell’elemento naturale a tal punto da aver ricostituito al suo interno un personale equilibrio ecosistemico, trasfigurando la cementizia in opera-luogo adatto ad accogliere la biodiversità urbana. La scelta del sito è un atto apertamente provocatorio, in quanto questo - situato alle pendici della Calvana - è oggetto dell’ennesimo fenomeno di speculazione edilizia qualificato, ancora una volta, come intervento di riqualificazione urbana.
Resumo:
Diversi studi in didattica della matematica sostengono che la performance sia influenzata non solo da fattori cognitivi ma anche da fattori affettivi. È ormai assodato che ogni individuo si approccia ai saperi da acquisire e da insegnare in modi dipendenti da aspetti come le emozioni che ha provato e che prova nei confronti della disciplina, le competenze che crede di possedere, le convinzioni sui contenuti disciplinari da apprendere o da spiegare. La matematica che si studia nella scuola secondaria di secondo grado è lontana dalla matematica contemporanea e dalla ricerca attuale. Questo, unito al fatto che quasi mai si sottolinea il percorso storico che ha portato allo sviluppo di certi strumenti matematici, fa sì che l’idea che uno studente si fa di questa disciplina sia irrealistica: una materia arida, immobile, con risultati indiscutibili e stabiliti nell’antichità più remota. Alla luce di ciò si può pensare di proporre agli studenti di scuola secondaria attività che li stimolino e li motivino, nell’ottica di modificare l'insieme delle loro convinzioni sulla matematica. In questo lavoro mi sono occupata della classificazione delle varietà bidimensionali per poi affrontare il passaggio alle 3-varietà. Si tratta di un problema che presenta diversi motivi di interesse: classico ma risolto in tempi moderni, frutto di un processo di pensiero collettivo e che mostra come la matematica sia una materia in costante evoluzione, nella quale l’approccio interdisciplinare può essere vincente rispetto a quello settoriale. Una prima parte del lavoro è stata dedicata allo studio dei temi topologici e geometrici con riferimento non solo alla genesi e, quando possibile, alla strategia dimostrativa, ma anche alla loro valenza didattica. Una seconda parte è stata dedicata alla selezione e all’analisi di come alcuni di questi contenuti si possano declinare in modo fruibile e fertile per gli studenti di scuola secondaria e alla progettazione di un possibile percorso didattico.
Resumo:
L’etichetta del discorso e le buone maniere comunicative rappresentano una parte fondamentale per il successo della comunicazione. La lingua russa e italiana presentano non poche differenze e incongruenze in questo aspetto che potrebbero rivelarsi fatali per la buona relazione fra gli interlocutori. In questo elaborato viene sottolineata l’importanza della conoscenza delle norme dell’etichetta del discorso per la mediazione linguistica e vengono analizzati nello specifico gli elementi principali in entrambe le lingue a confronto, affinché non si generi alcuna offesa o malumore. Tali elementi comprendono gli allocutivi di cortesia, gli appellativi diretti, il nome completo, le forme diminutive-vezzeggiative e le relative strategie traduttive.
Resumo:
Negli ultimi anni, la ricerca scientifica nell’ambito delle neuroscienze cognitive ha sempre più focalizzato il suo interesse nei confronti dei ritmi cerebrali, ovvero oscillazioni neurali registrabili attraverso tecniche di elettrocenfalografia. In questo lavoro si è investigato il ruolo del ritmo alpha (7-12 Hz) e, in seconda misura, del ritmo gamma (> 30 Hz) rispetto all’attenzione spaziale selettiva. In particolare, partendo da modelli di massa neurale esistenti, si è riusciti a sviluppare un nuovo modello che riesce a simulare un compito di attenzione spaziale sulla base dell’inibition timing hypothesis, che assegna alle onde alpha un ruolo essenziale al fine di trascurare gli stimoli non rilevanti rispetto al compito da svolgere. Successivamente, è stato indagato l’effetto sul modello di alcune degenerazioni neurali tipiche di una delle patologie maggiormente invalidanti, la schizofrenia. Nello specifico, sulla base di evidenze sperimentali che riportano un calo della potenza delle onde gamma nei soggetti schizofrenici a causa della degenerazione degli interneuroni inibitori con dinamica sinaptica veloce, si è riusciti a simulare la progressiva alterazione neurale indotta dalla schizofrenia in termini di incapacità di inibire gli stimoli interferenti.
Resumo:
L’elaborato ha l’obiettivo di fornire una panoramica piuttosto dettagliata sulla Telemedicina, le prestazioni erogabili in tale modalità ed il quadro normativo vigente, focalizzandosi sulla configurazione e presentazione di un software adibito all’erogazione di Televisite. Il primo capitolo assume un ruolo introduttivo nei confronti della Telemedicina, delle sue applicazioni, dei principali drivers, dei benefici e delle opportunità e dei rischi e delle criticità, correlati all’introduzione di prestazioni erogate in tale modalità. Il secondo capitolo si orienta inizialmente su un’analisi del quadro normativo vigente le prestazioni di Telemedicina, declinato su tre differenti livelli: Unione Europea, Italia ed Emilia-Romagna; proseguendo poi lo studio riguardo l’assetto normativo ed i requisiti necessari per la progettazione e la messa in commercio di un software sanitario. Il terzo capitolo si propone di presentare ed analizzare la configurazione di un software sanitario, attualmente attivo ed in commercio, adibito all’erogazione di Televisite, ossia un atto sanitario in cui il medico interagisce a distanza con il paziente. Si illustrano analiticamente le diverse prospettive degli attori coinvolti: la struttura sanitaria, il medico erogante ed il paziente ricevente la prestazione in modalità telematica. Ci si sofferma su tutti i processi volti alla corretta erogazione della Televisita: la struttura sanitaria è responsabile delle attività di configurazione di back office e delle procedure lato front office, il paziente della creazione dell’utenza web, della prenotazione e dell’accesso alla stanza virtuale ed il medico dell’accesso alla stanza virtuale, dell’erogazione della prestazione e della redazione del referto. Durante l’illustrazione delle procedure dalle diverse prospettive viene fornita anche un’analisi dell'applicativo, soffermandosi su alcune sue caratteristiche fondamentali, tipiche di un software sanitario.
Resumo:
La simulazione computerizzata è uno strumento per prevedere il comportamento di un sistema quando il sistema non è indagabile. Molti sono gli ambiti in cui viene utilizzata. Uno fra questi è l'evacuazione di folle. Le numerose tragedie, conseguenti a situazioni o eventi in presenza di folle, che hanno luogo in ogni parte del mondo a causa dell'incapacità di reagire in maniera coordinata a situazioni di emergenza, rendono necessario un innalzamento della comprensione delle dinamiche che emergono durante l'evacuazione. Molti studi hanno analizzato quelli che sono gli aspetti psicologici dell'essere umano che entrano in gioco in situazioni di panico. Ma è anche necessario considerare che cosa accade a un livello fisico. Questo contributo ha come obiettivo l'introduzione, all'interno del simulatore Alchemist, di elementi di micro-interazione fisica che possano fare da ponte a ciò che accade a livello cognitivo, così che sia possibile far emergere caratteristiche osservabili, come spinte e cadute, nell'ottica di aumentare il realismo nelle simulazioni di evacuazione di folle.
Resumo:
Negli ultimi decenni, il riscaldamento globale, causato dall’emissioni di gas serra in atmosfera, ha spinto i governi ad agire verso una progressiva sostituzione della generazione elettrica da fonte fossile con quella da rinnovabile. La non programmabilità di alcune fonti rinnovabili ha reso necessario l’utilizzo di tecnologie di accumulo dell’energia elettrica. In particolare, la produzione di idrogeno sembra essere una valida soluzione, ma il suo stoccaggio è uno dei principali ostacoli alla sua diffusione. Tra i diversi metodi di stoccaggio, quello più promettente è quello in idruri metallici. Affinché questa tecnologia diventi competitiva, è però necessario migliorare la cinetica della reazione di assorbimento/desorbimento dell’idrogeno nel sito metallico, attraverso una migliore gestione del calore prodotto/richiesto dalla reazione. In questo contesto, la presente tesi ha come obiettivo l’ottimizzazione del processo di carica di bombole agli idruri metallici, situate all’interno di una microgrid per la generazione e l’accumulo di energia da fotovoltaico, attraverso lo sviluppo di un sistema di controllo della temperatura delle bombole, e la realizzazione di prove sperimentali per valutare i reali benefici che esso comporta, in termini di capacità di stoccaggio e velocità di assorbimento dell’idrogeno. Dopo aver presentato il contesto energetico, lo stato dell’arte degli idruri metallici e la microgrid in cui sono situate le bombole, sono state descritte due versioni diverse del sistema ideato: una versione definitiva, che potrà essere realizzata per eventuali studi futuri, e una versione semplificata, che è stata poi realizzata in laboratorio. È stato descritto nel dettaglio il setup sperimentale, realizzato per svolgere le prove sul processo di carica della bombola, e sono stati poi riportati e confrontati i risultati ottenuti nel caso in cui non si è fatto uso del prototipo e quelli ottenuti nel caso in cui viene invece utilizzato per raffreddare la bombola.
Resumo:
Le stelle sono i corpi celesti fondamentali per comprendere l'evoluzione del nostro Universo. Infatti, attraverso processi di fusione nucleare che avvengono al loro interno, nel corso della loro vita le stelle producono la maggior parte dei metalli che popolano la tavola periodica, non presenti all'inizio della vita dell'Universo e la cui presenza è attribuile soltanto alla nucleosintesi stellare. In questa tesi viene trattato questo aspetto, ovvero la produzione di elementi chimici nelle stelle, seguendo in ordine cronologico le principali fasi della vita delle stelle stesse. Nel primo capitolo sono fornite delle informazioni generali sulle reazioni termonucleari, che sono alla base della vita delle stelle e della produzione di molti elementi chimici. Successivamente, vengono approfondite le catene di reazioni termonucleari che consentono la fusione dell'idrogeno in elio all'interno delle stelle, ovvero la catena protone-protone e il ciclo CNO. Nei capitoli seguenti sono state analizzate le reazioni termonucleari di fusione dell'elio in carbonio, note come processo 3-alfa, e di elementi più pesanti, quali carbonio, neon, ossigeno e silicio, che avvengono quando la stella è ormai una gigante o supergigante rossa. Infine, nell'ultimo capitolo viene descritto come, nelle fasi finali della loro vita, le stelle riescano a produrre elementi più pesanti attraverso processi di cattura neutronica, per poi rilasciarli attraverso le esplosioni di supernove, arricchendo significativamente il mezzo interstellare.
Resumo:
L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.