405 resultados para Oratorio della Madonna delle Grazie (Church).
Resumo:
Negli ultimi anni, la ricerca scientifica nell’ambito delle neuroscienze cognitive ha sempre più focalizzato il suo interesse nei confronti dei ritmi cerebrali, ovvero oscillazioni neurali registrabili attraverso tecniche di elettrocenfalografia. In questo lavoro si è investigato il ruolo del ritmo alpha (7-12 Hz) e, in seconda misura, del ritmo gamma (> 30 Hz) rispetto all’attenzione spaziale selettiva. In particolare, partendo da modelli di massa neurale esistenti, si è riusciti a sviluppare un nuovo modello che riesce a simulare un compito di attenzione spaziale sulla base dell’inibition timing hypothesis, che assegna alle onde alpha un ruolo essenziale al fine di trascurare gli stimoli non rilevanti rispetto al compito da svolgere. Successivamente, è stato indagato l’effetto sul modello di alcune degenerazioni neurali tipiche di una delle patologie maggiormente invalidanti, la schizofrenia. Nello specifico, sulla base di evidenze sperimentali che riportano un calo della potenza delle onde gamma nei soggetti schizofrenici a causa della degenerazione degli interneuroni inibitori con dinamica sinaptica veloce, si è riusciti a simulare la progressiva alterazione neurale indotta dalla schizofrenia in termini di incapacità di inibire gli stimoli interferenti.
Resumo:
L’elaborato ha l’obiettivo di fornire una panoramica piuttosto dettagliata sulla Telemedicina, le prestazioni erogabili in tale modalità ed il quadro normativo vigente, focalizzandosi sulla configurazione e presentazione di un software adibito all’erogazione di Televisite. Il primo capitolo assume un ruolo introduttivo nei confronti della Telemedicina, delle sue applicazioni, dei principali drivers, dei benefici e delle opportunità e dei rischi e delle criticità, correlati all’introduzione di prestazioni erogate in tale modalità. Il secondo capitolo si orienta inizialmente su un’analisi del quadro normativo vigente le prestazioni di Telemedicina, declinato su tre differenti livelli: Unione Europea, Italia ed Emilia-Romagna; proseguendo poi lo studio riguardo l’assetto normativo ed i requisiti necessari per la progettazione e la messa in commercio di un software sanitario. Il terzo capitolo si propone di presentare ed analizzare la configurazione di un software sanitario, attualmente attivo ed in commercio, adibito all’erogazione di Televisite, ossia un atto sanitario in cui il medico interagisce a distanza con il paziente. Si illustrano analiticamente le diverse prospettive degli attori coinvolti: la struttura sanitaria, il medico erogante ed il paziente ricevente la prestazione in modalità telematica. Ci si sofferma su tutti i processi volti alla corretta erogazione della Televisita: la struttura sanitaria è responsabile delle attività di configurazione di back office e delle procedure lato front office, il paziente della creazione dell’utenza web, della prenotazione e dell’accesso alla stanza virtuale ed il medico dell’accesso alla stanza virtuale, dell’erogazione della prestazione e della redazione del referto. Durante l’illustrazione delle procedure dalle diverse prospettive viene fornita anche un’analisi dell'applicativo, soffermandosi su alcune sue caratteristiche fondamentali, tipiche di un software sanitario.
Resumo:
La simulazione computerizzata è uno strumento per prevedere il comportamento di un sistema quando il sistema non è indagabile. Molti sono gli ambiti in cui viene utilizzata. Uno fra questi è l'evacuazione di folle. Le numerose tragedie, conseguenti a situazioni o eventi in presenza di folle, che hanno luogo in ogni parte del mondo a causa dell'incapacità di reagire in maniera coordinata a situazioni di emergenza, rendono necessario un innalzamento della comprensione delle dinamiche che emergono durante l'evacuazione. Molti studi hanno analizzato quelli che sono gli aspetti psicologici dell'essere umano che entrano in gioco in situazioni di panico. Ma è anche necessario considerare che cosa accade a un livello fisico. Questo contributo ha come obiettivo l'introduzione, all'interno del simulatore Alchemist, di elementi di micro-interazione fisica che possano fare da ponte a ciò che accade a livello cognitivo, così che sia possibile far emergere caratteristiche osservabili, come spinte e cadute, nell'ottica di aumentare il realismo nelle simulazioni di evacuazione di folle.
Resumo:
Negli ultimi decenni, il riscaldamento globale, causato dall’emissioni di gas serra in atmosfera, ha spinto i governi ad agire verso una progressiva sostituzione della generazione elettrica da fonte fossile con quella da rinnovabile. La non programmabilità di alcune fonti rinnovabili ha reso necessario l’utilizzo di tecnologie di accumulo dell’energia elettrica. In particolare, la produzione di idrogeno sembra essere una valida soluzione, ma il suo stoccaggio è uno dei principali ostacoli alla sua diffusione. Tra i diversi metodi di stoccaggio, quello più promettente è quello in idruri metallici. Affinché questa tecnologia diventi competitiva, è però necessario migliorare la cinetica della reazione di assorbimento/desorbimento dell’idrogeno nel sito metallico, attraverso una migliore gestione del calore prodotto/richiesto dalla reazione. In questo contesto, la presente tesi ha come obiettivo l’ottimizzazione del processo di carica di bombole agli idruri metallici, situate all’interno di una microgrid per la generazione e l’accumulo di energia da fotovoltaico, attraverso lo sviluppo di un sistema di controllo della temperatura delle bombole, e la realizzazione di prove sperimentali per valutare i reali benefici che esso comporta, in termini di capacità di stoccaggio e velocità di assorbimento dell’idrogeno. Dopo aver presentato il contesto energetico, lo stato dell’arte degli idruri metallici e la microgrid in cui sono situate le bombole, sono state descritte due versioni diverse del sistema ideato: una versione definitiva, che potrà essere realizzata per eventuali studi futuri, e una versione semplificata, che è stata poi realizzata in laboratorio. È stato descritto nel dettaglio il setup sperimentale, realizzato per svolgere le prove sul processo di carica della bombola, e sono stati poi riportati e confrontati i risultati ottenuti nel caso in cui non si è fatto uso del prototipo e quelli ottenuti nel caso in cui viene invece utilizzato per raffreddare la bombola.
Resumo:
Le stelle sono i corpi celesti fondamentali per comprendere l'evoluzione del nostro Universo. Infatti, attraverso processi di fusione nucleare che avvengono al loro interno, nel corso della loro vita le stelle producono la maggior parte dei metalli che popolano la tavola periodica, non presenti all'inizio della vita dell'Universo e la cui presenza è attribuile soltanto alla nucleosintesi stellare. In questa tesi viene trattato questo aspetto, ovvero la produzione di elementi chimici nelle stelle, seguendo in ordine cronologico le principali fasi della vita delle stelle stesse. Nel primo capitolo sono fornite delle informazioni generali sulle reazioni termonucleari, che sono alla base della vita delle stelle e della produzione di molti elementi chimici. Successivamente, vengono approfondite le catene di reazioni termonucleari che consentono la fusione dell'idrogeno in elio all'interno delle stelle, ovvero la catena protone-protone e il ciclo CNO. Nei capitoli seguenti sono state analizzate le reazioni termonucleari di fusione dell'elio in carbonio, note come processo 3-alfa, e di elementi più pesanti, quali carbonio, neon, ossigeno e silicio, che avvengono quando la stella è ormai una gigante o supergigante rossa. Infine, nell'ultimo capitolo viene descritto come, nelle fasi finali della loro vita, le stelle riescano a produrre elementi più pesanti attraverso processi di cattura neutronica, per poi rilasciarli attraverso le esplosioni di supernove, arricchendo significativamente il mezzo interstellare.
Resumo:
L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.
Resumo:
Dopo aver illustrato i concetti chiave della teoria delle varie classi di complessità computazionale, l'elaborato si pone come obiettivo quello di inserire in una classe di complessità il seguente problema: "Quanto è difficile salvare la principessa in Super Mario Bros?". Analizzeremo 3 varianti diversi del gioco, e per ognuna di essi daremo un risultato.
Resumo:
L'elaborato parte da una scheda di sviluppo commerciale per arrivare a realizzare una rete LoRaWAN comprensiva di End-Node, Gateway e Application Server. In maniera specifica, l'elaborato affronta il problema della progettazione di end-node a micropotenze. Dopo aver studiato e collaudato la piattaforma di sviluppo, è stata affrontata la problematica dell'ottimizzazione energetica a diversi livelli: scelta di componenti con correnti di perdita estremamente ridotte, tecniche di power gating temporizzato, comportamento adattativo del nodo, impostazione dei consumi del nodo mediante i server della rete. L'elaborato presenta infine il layout del PCB progettato, pronto per la fabbricazione, insieme a stime del tempo di vita dell'end-node in funzione della frequenza di trasmissione e della capacità delle batterie utilizzate.
Resumo:
Lo scopo di questa Tesi di Laurea è quello di dimostrare il Teorema di Connettività per un sistema di Hörmander di campi vettoriali, il quale ci fornisce una condizione sufficiente alla connessione di un aperto di R^N tramite curve integrali a tratti dei campi vettoriali stessi e dei loro opposti, e presentarne alcune applicazioni. Nel primo Capitolo daremo i prerequisiti necessari alla trattazione degli altri tre, con particolare attenzione ad un Lemma che mette in relazione le curve integrali del commutatore di m campi vettoriali con la composizione di un opportuno numero di mappe flusso dei campi vettoriali che costituiscono il commutatore. Il secondo Capitolo è interamente dedicato alla dimostrazione del Teorema di Connettività e all'analisi della definizione delle curve subunitarie in un aperto rispetto ad una famiglia di campi vettoriali X, dette curve X-subunitarie. Nel terzo Capitolo forniremo una introduzione alla distanza di Carnot-Carathéodory, detta anche distanza di X-controllo, arrivando a dimostrare il notevolissimo Teorema di Chow-Rashewskii, il quale ci fornisce, sotto le ipotesi del Teorema di Connettività, una stima tra la metrica Euclidea e la distanza di X-controllo, mediante due disuguaglianze. Queste ultime implicano anche una equivalenza tra la topologia indotta dalla distanza di X-controllo e la topologia Euclidea. Nel quarto e ultimo Capitolo, indagheremo gli insiemi di propagazione tramite curve integrali dei campi vettoriali in X e tramite curve X-subunitarie. Utilizzando la definizione di invarianza di un insieme rispetto ad un campo vettoriale e avvalendosi del Teorema di Nagumo-Bony, dimostreremo che: la chiusura dei punti raggiungibili, partendo da un punto P in un aperto fissato, tramite curve integrali a tratti dei campi vettoriali in X e dei loro opposti, è uguale alla chiusura dei punti raggiungibili, sempre partendo da P, tramite un particolare sottoinsieme di curve X-subunitarie C^1 a tratti.
Resumo:
L'argomento della Tesi è lo studio delle serie trigonometriche e di Fourier: in particolare, il problema dello sviluppo in serie trigonometrica di una data funzione 2π-periodica e l'unicità di tale sviluppo, che si deduce dal Teorema di Lebesgue e Du Bois-Reymond. Nel Capitolo 1 sono stati richiamati alcune definizioni e risultati di base della teoria delle serie trigonometriche e di Fourier. Il Capitolo 2 è dedicato alla teoria della derivata seconda di Schwarz (una generalizzazione della derivata seconda classica) e delle cosidette funzioni 1/2-convesse: il culmine di questo capitolo è rappresentato dal Teorema di De la Vallée-Poussin, che viene applicato crucialmente nella prova del teorema centrale della tesi. Nel Capitolo 3 si torna alla teoria delle serie trigonometriche, applicando i risultati principali della teoria della derivata seconda di Schwarz e delle funzioni 1/2-convesse, visti nel capitolo precedente, per definire il concetto di funzione di Riemann e di somma nel senso di Riemann di una serie trigonometrica e vederne le principali proprietà. Conclude il Capitolo 3 la prova del Teorema di Lebesgue e Du Bois-Reymond, in cui vengono usate tutte le nozioni e i risultati del terzo capitolo e il Teorema di De la Vallée-Poussin. Infine, il Capitolo 4 è dedicato alle applicazione del Teorema di Lebesgue e Du Bois-Reymond. In una prima sezione del Capitolo 4 vi sono alcuni casi particolari del Teorema di Lebesgue e Du Bois-Reymond e in particolare viene dimostrata l'unicità dello sviluppo in serie trigonometrica per una funzione 2π-periodica e a valori finiti. Conclude la Tesi un'altra applicazione del Teorema di Lebesgue e Du Bois-Reymond: la prova dell'esistenza di funzioni continue e 2π-periodiche che non sono la somma puntuale di nessuna serie trigonometrica, con un notevole esempio di Lebesgue.
Resumo:
La tesi ha lo scopo di illustrare come sia possibile l’applicazione del metodo biodinamico prendendo come caso studio Tenuta Mara, un’azienda situata nelle colline riminesi. Dapprima viene analizzato il pensiero di Rudolf Steiner, ideatore della teoria che, attraverso le otto conferenze tenute nel 1924 a Koberwitz, rende noti i risultati delle sue ricerche sperimentali avviate nel 1922, derivate da una visione del mondo dove le forze cosmiche, i pianeti e le costellazioni creano un equilibrio tra loro, dove l’uomo si integra pienamente rispettando i voleri della terra. Viene anche affrontata una parte relativa al quadro normativo, facendo un excursus dal marchio Demeter del 1927, al primo Regolamento CEE 2092/ 91 relativo al biologico, fino alla recente legge n. 23 del 9 Marzo 2022 in Italia. Si passa così da una prima parte teorica alla seconda, dove questa viene messa in pratica. Tenuta Mara ha fatto dell’attenzione verso la sostenibilità, riguardante i materiali ecologici utilizzati nella struttura, del risparmio energetico su tutto il processo produttivo e della gestione delle acque consapevoli i propri punti cardine. Le pratiche della viticoltura biodinamica si fondono con la passione per il vino, per l’arte e la musica, con la decisione di ridurre al minimo l’intervento dell’uomo durante tutto il processo enologico, dando alla natura il potere di sceglierne il percorso. Attraverso il supporto dell’enologo viene compreso appieno lo spirito della Tenuta, ponendo particolare attenzione sul processo di vinificazione in bianco per la produzione del Maramato, un vino color del rame, derivato dalle uve di Sangiovese.
Resumo:
La città di Bologna è sicuramente famosa per le sue due torri, ma anche per la fitta rete idraulica ormai nascosta sotto le strade e sotto gli edifici. I primi canali di Bologna furono realizzati tra il XII e il XVI secolo a seguito della costruzione delle due opere fondamentali: le chiuse di San Ruffillo e di Casalecchio. Queste due opere di presa servivano e, servono ancora oggi, ad alimentare i canali del Navile, del Reno, del Savena, del Cavaticcio e delle Moline. Oltre a questi canali alimentati dalle acque dei fiumi, sotto la città di Bologna scorrono torrenti che drenano le acque prevalentemente meteoriche della zona pedecollinare della città, come ad esempio il torrente Ravone. Il presente lavoro di tesi ha come caso di studio proprio quest’ultimo. Il Ravone, in origine, scorreva a cielo aperto attraversando la città, ma per permettere l’urbanizzazione fuori dalle mura, è stato tombato in diversi tratti e in diverse epoche. La scarsità di informazioni riguardo la sua esatta posizione e la mancanza di elaborati grafici in grado di descriverne la sua geometria, ha spinto le autorità a richiedere un accurato rilievo al LARIG dell’UniBo. Le operazioni di rilievo si sono svolte con l’uso di tecniche geomatiche per la modellazione tridimensionale come l’aerofotogrammetria e l’acquisizione con laser scanner terrestre. Al fine di georeferenziare il dato acquisito, si è ricorso a tecniche di rilievo topografico come il posizionamento GNSS e la misurazione di angoli e distanze con stazione totale. I primi capitoli di questo elaborato sono dedicati alla descrizione dei fondamenti teorici della geodesia e delle tecniche di rilievo utilizzate per la restituzione del modello tridimensionale. Gli ultimi capitoli, invece, sono dedicati alla descrizione delle fasi di rilievo e all’analisi dei dati, dedicando particolare attenzione alla georeferenziazione delle nuvole di punti acquisite in ambienti confinati, come i tratti tombati del torrente Ravone.
Resumo:
In questo elaborato viene trattata l’analisi del problema di soft labeling applicato alla multi-document summarization, in particolare vengono testate varie tecniche per estrarre frasi rilevanti dai documenti presi in dettaglio, al fine di fornire al modello di summarization quelle di maggior rilievo e più informative per il riassunto da generare. Questo problema nasce per far fronte ai limiti che presentano i modelli di summarization attualmente a disposizione, che possono processare un numero limitato di frasi; sorge quindi la necessità di filtrare le informazioni più rilevanti quando il lavoro si applica a documenti lunghi. Al fine di scandire la metrica di importanza, vengono presi come riferimento metodi sintattici, semantici e basati su rappresentazione a grafi AMR. Il dataset preso come riferimento è Multi-LexSum, che include tre granularità di summarization di testi legali. L’analisi in questione si compone quindi della fase di estrazione delle frasi dai documenti, della misurazione delle metriche stabilite e del passaggio al modello stato dell’arte PRIMERA per l’elaborazione del riassunto. Il testo ottenuto viene poi confrontato con il riassunto target già fornito, considerato come ottimale; lavorando in queste condizioni l’obiettivo è di definire soglie ottimali di upper-bound per l’accuratezza delle metriche, che potrebbero ampliare il lavoro ad analisi più dettagliate qualora queste superino lo stato dell’arte attuale.
Resumo:
Il processo di sviluppo di un’applicazione comprende più fasi, ognuna strettamente correlata alle altre. Una delle fasi di questo processo è il rilascio del software, che consiste nel rendere disponibile agli utenti l’applicazione caricandone l’eseguibile su un server, sul quale verrà poi eseguita. Per un’azienda di sviluppo software è particolarmente importante automatizzare e standardizzare il processo di rilascio del software, allo scopo di renderlo più veloce e di diminuire il tempo che intercorre fra una modifica e il momento in cui questa viene effettivamente resa disponibile per gli utenti, ottimizzando infine l’impegno degli sviluppatori. La presente tesi descrive l’implementazione di un sistema di Continuous Integration e Continuous Deliveliry scalabile su una software house con più di 900 dipendenti suddivisi in decine di team, ognuno dei quali ha in carico lo sviluppo di vari software. Le applicazioni realizzate dai team sono generalmente microservizi in esecuzione all’interno di container su piattaforma Kubernetes. Sono state quindi valutate le varie alternative per la realizzazione di questo sistema, analizzandone pro e contro, scegliendo infine GitLab per la parte di Continuous Integration e ArgoCD per la parte di Continuous Deployment. Nei vari capitoli viene quindi analizzata l’infrastruttura esistente e vengono illustrati i vantaggi e svantaggi delle varie soluzioni considerate. Per i due software selezionati viene invece descritto il lavoro svolto, con dettagli sul funzionamento del sistema e la configurazione necessaria per il corretto funzionamento dell’intero processo. La soluzione realizzata effettua build, test, code validation e deploy delle applicazioni seguendo un pattern GitOps, con un repository git contenente la configurazione attuale delle applicazioni, permettendo rollback in caso di problematiche e garantendo un alto livello di sicurezza attraverso il mantenimento dello storico della configurazione e della versione delle applicazioni.
Resumo:
Tutte le informazioni riguardanti le proprietà fisiche delle stelle derivano più o meno direttamente dallo studio dei loro spettri. La luce, infatti, contiene informazioni estremamente dettagliate sulla sorgente da cui è stata prodotta. In particolare, lo studio dell’intensità delle righe spettrali di assorbimento permette di ricavare informazioni su composizione, temperatura, abbondanze chimiche, movimenti, pressione e campi ma- gnetici delle stelle. La forma delle righe, inoltre, contiene informazioni sui processi che avvengono nelle atmosfere stellari. L’elaborato è suddiviso in tre sezioni: nel primo capitolo verranno descritti i meccanismi di interazione radiazione-materia alla base della formazione delle righe spettrali. Nel secondo capitolo sarà analizzato il fenomeno dello shift che caratterizza gli spettri stellari. Nel terzo capitolo, infine, si tratterà di tutti quei processi che contribuiscono all’allargamento delle righe spettrali.