1000 resultados para GeoGebra immagini matematiche integrazione numerica superfici di rotazione
Resumo:
La presente tesi di laurea vuole affrontare il tema degli allagamenti in ambito urbano e si inserisce all’interno di un progetto già in essere riguardante la realizzazione di un modello numerico del sistema di drenaggio della città di Ravenna. L'obbiettivo è la modellazione in 2D delle aree della città del comparto nord caratterizzate da eventi di Pluvial flooding con particolare riguardo ai siti di interesse archeologico facenti parte del patrimonio UNESCO. Il caso di studio, inoltre, è ripreso dal programma SHELTER (Sustainable Historic Environments hoListic reconstruction through Technological Enhancement and community based Resilience) finanziato nell’ambito del programma per la ricerca europea Horizon 2020. Nel presente elaborato verranno dunque simulati i vari scenari idraulici caratterizzati da eventi di precipitazione riferiti a tempi di ritorno differenti al fine di analizzare la risposta del comparto nord della rete di Ravenna, per valutarne le critica tramite l’utilizzo del software EPA SWMM. I risultati ottenuti saranno dunque rielaborati per essere utilizzati nella realizzazione di carte tematiche grazie all’utilizzo del software GIS. Tali carte permetteranno quindi di valutare le aree maggiormente soggette a fenomeni di allagamento. I risultati verranno infine analizzati attraverso il software di modellazione bidimensionale HEC-RAS riuscendo così a comprendere meglio il fenomeno dell’allagamento urbano. Verrà posta una particolare attenzione nelle zone dove sono presenti i siti facenti parte del patrimonio UNESCO: Basilica di San Vitale e Battistero Ariani. I risultati ottenuti dalla modellazione, permetteranno infine, di valutare le metodologie e gli approcci per ridurre i deflussi superficiali durante la precipitazione e, quindi le portate in fognatura, andando così a garantire una protezione idraulica e ambientale del territorio aumentando la resilienza del comparto urbano.
Resumo:
La tesi studia un algoritmo presentato per la prima volta da Elias Kellner et al. nell'articolo "Gibbs‐ringing artifact removal based on local subvoxel‐shifts" pubblicato nel 2016 nella rivista Magnetic resonance in medicine. Nella tesi viene dato un background teorico sia dell'acquisizione di immagini tramite risonanza magnetica, soffermandosi in particolare su come si forma l'effetto Gibbs, sia sul funzionamento dell'algoritmo. Vengono poi mostrati numerosi esempi di immagini, sia sintetiche sia acquisite da risonanza magnetica, per dimostrare l'efficacia dell'algoritmo.
Resumo:
Nella tomografia computerizzata subentrano due fonti principali di rumore nel processo di generazione dell'immagine. Il l rumore legato al disturbo generato dall'elettronica si può modellare con un rumore di Gauss, mentre il rumore dovuto all'interazione dei fotoni con il corpo in scansione può essere modellato con un rumore di Poisson. Partendo da un modello per la rimozione del rumore misto di Poisson-Gauss (modello Infimal), viene applicato l'algoritmo del gradiente proiettato scalato (SGP) con Infimal su vari rumori misti per analizzarne l'efficacia.
Resumo:
Nell’analisi del comportamento delle fondazioni profonde, è cruciale comprendere la relazione che governa il legame sforzo-deformazione quando si innesca uno scorrimento relativo tra il terreno e altri materiali di costruzione. Quando tra terreno e struttura insorge uno scorrimento relativo, vi è la formazione di una zona denominata “banda di taglio”, essa è una porzione di terreno costituita da un sottile strato posto a diretto contatto con la superficie di un materiale avente caratteristiche meccaniche differenti. L'interazione struttura-terreno avviene a causa della mobilitazione di una forza agente in direzione tangenziale alla superficie di contatto tra i due mezzi. Lo studio dei problemi d'interfaccia è rilevante per tutte quelle strutture la cui resistenza allo scorrimento risulta essere una componente predominante nei riguardi della risposta della fondazione nel suo complesso. Il presente lavoro di tesi ha come oggetto l’analisi sperimentale e la modellazione del comportamento meccanico della sabbia Rohsand 3152 a contatto con superfici d’acciaio di diversa ruvidezza. Tale tema di studio si inserisce in un più ampio programma di ricerca sullo studio del comportamento di pali battuti a punta aperta in terreni granulari sottoposti a sforzi assiali. L'obiettivo principale della tesi è quello di analizzare e interpretare i dati delle prove di laboratorio condotte su Rohsand 3152 e implementare un modello costitutivo elasto-plastico, capace di cogliere tutti gli aspetti che influenzano il comportamento d'interfaccia in condizioni di carico monotono.
Resumo:
Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.
Resumo:
L'argomento principale discusso in questa tesi riguarda la proposta di un'attività laboratoriale circa la trattazione di problemi di ottimizzazione unidimensionale in una scuola secondaria di secondo grado. Tale argomento rientra, infatti, tra le voci all'interno dei programmi ministeriali stilati per le classi terze dei Licei Scientifici, come applicazione dello studio e dell'analisi della parabola e come preambolo per la trattazione di problemi isoperimetrici e geometrici. Si tratta, dunque, di risolvere dei problemi di massimo e minimo senza utilizzare la derivata, sfruttando solamente la parabola e l'aspetto grafico del problema. Da qui, l'importanza di soffermarsi sulla visualizzazione corretta della situazione problematica, facendo proprie le potenzialità di software didattici, come GeoGebra, che permettono agli studenti di risolvere le proprie difficoltà. Verrà quindi illustrato il percorso didattico progettato: i risultati teorici elaborati e le modalità di ragionamento; lo sviluppo storico che vi è dietro, soffermandosi sugli studi di alcuni matematici importanti; alcune applicazioni reali dell'ottimizzazione, mostrando specialmente qualche legame con la fisica. Viene riportato, anche, lo svolgimento di alcuni esercizi, confrontando sia la modalità più tradizionale che quella incentrata sulla costruzione grafica su GeoGebra. Nell'ultimo Capitolo, infine, viene fornita una analisi dei feedback e dei risultati relativa all'attività laboratoriale, che è stata presentata all'interno di una classe terza di un Liceo Scientifico: verranno esaminati i livelli di competenze raggiunti e gli eventuali vantaggi offerti da una trattazione di questo tipo.
Resumo:
Questo elaborato mostra lo sviluppo di un plugin per la visualizzazione in Grafana di eventi provenienti dalla piattaforma semantica SEPA (SPARQL Event Processing Architecture). La principale funzione svolta dal SEPA è quella di notificare in modo asincrono i propri client rispetto al cambiamento dei risultati di una query che interroga il sottostante grafo RDF. La piattaforma trova il suo utilizzo in quei contesti caratterizzati da dati dinamici, eterogenei e non strutturati e viene impiegata principalmente come strumento per abilitare l’interoperabilità in domini come per esempio l’Internet of Things. Nasce quindi l’esigenza di disporre di strumenti per il monitoraggio e la visualizzazione di dati real-time. Grafana risulta in questo caso lo strumento ideale data la sua flessibilità, che affiancata alla sua natura open source, lo rende particolarmente interessante per lo sviluppo della soluzione proposta da VAIMEE, spinoff dell’Università di Bologna, ospitato presso il CesenaLab, luogo dove è stato svolto questo lavoro di tesi.
Resumo:
In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.
Resumo:
In questo elaborato si propone il metodo di regolarizzazione mediante Variazione Totale per risolvere gli artefatti presenti nelle immagini di Risonanza Magnetica. Di particolare interesse sono gli artefatti di Gibbs, dovuti al troncamento dei dati, nel processo di acquisizione, e alla tecnica di ricostruzione basata sulla trasformata di Fourier. Il metodo proposto si fonda su un problema di minimo la cui funzione obiettivo è data dalla somma di un termine che garantisce la consistenza con i dati, e di un termine di penalizzazione, ovvero la Variazione Totale. Per la risoluzione di tale problema, si utilizza il metodo Alternating Direction Method of Multipliers (ADMM). In conclusione, si mostra l’efficacia del metodo descritto applicandolo ad alcuni problemi test con dati sintetici e reali.
Resumo:
Questa tesi ha come proposito esplorare le architetture che integrano i Digital Twins in applicazioni di Mixed Reality. L’obiettivo cardine è quello di mostrare una possibile realizzazione di un sistema di questo tipo. Per raggiungere l’obiettivo posto si è scelto di progettare un sistema che sia realizzabile come soluzione in un contesto reale. La tesi è strutturata in modo tale da offrire al lettore una presentazione generale delle tecnologie utilizzate mantenendole ben distinte. Successivamente viene analizzata la possibilità di unire queste tecnologie presentando quindi delle possibili implementazioni. Come Caso di Studio si è scelto di realizzare un’applicazione a supporto dei medici che offrisse, durante un’operazione chirurgica, la possibilità di visualizzare il monitor dei parametri vitali tramite ologramma. L’architettura presentata viene suddivisa in tre sottosistemi indipendenti in base alla tecnologia presa di riferimento. Le macro sezioni presentate sono: Physical Asset, Digital Twins e Hologram. Questi sottosistemi vengono analizzati uno per volta e successivamente viene realizzata l’architettura inerente. Terminata la realizzazione del sistema, vengono presentate al lettore delle alternative architetturali con annesse le possibili implementazioni.
Resumo:
Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.
Resumo:
Lo scopo della ricerca è quello di sviluppare un metodo di design che integri gli apporti delle diverse discipline di architettura, ingegneria e fabbricazione all’interno del progetto, utilizzando come caso di studio l’uso di una tettonica ad elementi planari in legno per la costruzione di superfici a guscio da utilizzare come padiglioni temporanei. La maniera in cui ci si propone di raggiungere tale scopo è tramite l’utilizzo di un agent based system che funge da mediatore tra i vari obbiettivi che si vogliono considerare, in questo caso tra parametri estetici, legati alla geometria scelta, e di fabbricazione. Si sceglie di applicare questo sistema allo studio di una struttura a guscio, che grazie alla sua naturale rigidezza integra forma e capacità strutturale, tramite una tassellazione planare della superficie stessa. Il sistema studiato si basa sull’algoritmo di circle relaxation, che viene integrato tramite dei comportamenti che tengano conto della curvatura della superficie in questione e altri comportamenti scelti appositamente per agevolare il processo di tassellazione tramite tangent plane intersection. La scelta di studiare elementi planari è finalizzata ad una maggiore facilità di fabbricazione ed assemblaggio prevedendo l’uso di macchine a controllo numerico per la fabbricazione e un assemblaggio interamente a secco e che non necessita di impalcature . Il risultato proposto è quello quindi di un padiglione costituito da elementi planari ricomponibili in legno, con particolare attenzione alla facilità e velocità di montaggio degli stessi, utile per possibili strutture temporanee e/o di emergenza.
Resumo:
Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.
Resumo:
Le fibre ottiche sono materiali costituiti al loro interno da fibre di vetro o filamenti polimerici. Esse attualmente trovano grande impiego nel campo della telecomunicazione, ma è assai importante lo sviluppo che stanno ottenendo nel campo del monitoraggio strutturale. L’obiettivo del lavoro descritto in questo elaborato finale è di riuscire a sviluppare un programma in grado di computare una simulazione analitico-parametrica riguardante i segnali restituiti da un sensore in fibra ottica. In particolare, sono stati creati due codici (Codice 1 e Codice 2) per sostenere un Codice Esistente. Quest’ultimo prende in input dei dati sperimentali che, invece di essere ottenuti da prove in laboratorio, sono prodotti in uscita dal Codice 1, il quale simula prove a fatica o statiche in provini di diverso materiale. Attraverso l’analisi di questi dati, il codice finale crea delle curve probabilistiche in grado di asserire con quanta probabilità e con quale confidenza è possibile valutare i risultati esplicitati dallo strumento di rilevazione, che in questo caso è un sensore in fibra ottica. D’altra parte, il Codice 2 analizza le conseguenze nella Probability of Detection e confidenza al variare dei parametri maggiormente influenti nel modello.
Resumo:
Nel seguente elaborato viene ripercorso il lavoro svolto per la progettazione di un box batterie in materiale composito e in particolare il relativo sistema di fissaggio al telaio che verrà utilizzato per l’auto solare Emilia 5. Questo prototipo di veicolo, che viene sviluppato dai membri del team Onda Solare presso l’azienda Metal TIG a Castel San Pietro Terme (BO), è un’auto completamente elettrica che sfrutta l’energia solare attraverso pannelli fotovoltaici e la cui propulsione è garantita dalla sola energia accumulata nelle batterie. Emilia 5 gareggerà all’evento World Solar Challenge 2023 in Australia, competizione riservata alle auto solari che vede impegnati teams da tutto il mondo. L’elaborato mostra inizialmente la modellazione geometrica tridimensionale delle parti sviluppata attraverso il software Solidworks, analizzandone i dettagli funzionali. In seguito, tramite il software Ansys Workbench, vengono eseguite simulazioni agli elementi finiti verificando che i componenti, considerati in alluminio, rispondano correttamente ai carichi imposti. Per ultimo, vengono menzionati i materiali compositi in fibra di carbonio e si analizza la sequenza di laminazione relativa alla scatola delle batterie. I risultati ottenuti saranno utilizzati dal team Onda Solare come punto di riferimento per la realizzazione dei componenti di Emilia 5.