996 resultados para supernova SNe parametri vincoli cosmologia modelli cosmologici redshift espansione universo
Resumo:
Il 3D printing è presente da tempo in molti settori economici e da sempre ha nella sanità uno dei principali ambiti di applicazione. Durante il corso del presente lavoro sono state esaminate le principali applicazioni in campo sanitario con particolare focus sulla fase di planning in caso di chirurgia complessa. La pianificazione risulta essere la fase maggiormente impattante nel contesto più globale di gestione del paziente in quanto una maggior accuratezza nella visualizzazione del caso clinico consente di ottimizzare l’identificazione di un adeguato approccio chirurgico con ovvie conseguenti ripercussioni positive sulla totalità della degenza del paziente all’interno della struttura clinica ospitante. Nel dettaglio è stato valutato l’utilizzo di un innovativo protocollo di pre-planning e follow-up operatorio tramite la realizzazione di modelli stampati 3D a partire da immagini di diagnostica classica (TAC, MRI, 3Dscan) che hanno consentito di poter fornire allo specialista clinico di riferimento un prodotto che riproducendo perfettamente l’anatomia del soggetto (morfologia-proprietà fisiche del tessuto) ha consentito allo stesso un miglioramento delle usuali pratiche chirurgiche e terapeutiche in casi di elevata complessità in un arco temporale ristretto. I parametri utilizzati per la valutazione dei reali benefici dell’approccio esposto sono stati: tempi di pianificazione chirurgica e tempi di intervento all’interno di una più globale analisi dei costi associati. A fronte di un’indagine interna preventiva presso l’azienda ospedaliera ospitante sono stati designati i seguenti reparti come settori pilota: maxillofacciale, neurochirurgia e radiologia interventistica. Lo studio è stato svolto in collaborazione con l’ospedale M.Bufalini di Cesena in qualità di referente clinico e l’azienda Aid4Med Srl in qualità di azienda leader in pianificazione operatoria tramite ausili realizzati tramite tecniche di additive manufacturing.
Resumo:
L’obiettivo di questa tesi è lo studio dell’applicazione del filtro di Kalman Duale per la stima dei principali parametri di batteria. Si è realizzato un algoritmo che consente la stima del SoC e dei parametri basandosi su riferimenti di tensione provenienti da modelli matematici e da prove di laboratorio. La scelta del Kalman duale consente uno studio più completo dei parametri di batteria visto che permette di operare su circuiti equivalenti più complessi con maggiori informazioni sull’evoluzione della batteria nel tempo. I risultati dimostrano l’efficacia del DEKF nello stimare la tensione e lo stato di carica con errori minori rispetto a precedenti test effettuati con altri filtri di Kalman. Si ha però una difficoltà alla convergenza su alcuni parametri a causa dell’elevato carico computazionale che porta ad un aumento del rumore. Perciò, per studi futuri si dovrà aumentare la precisione con cui la stima duale opera sulla matrice dei parametri del circuito equivalente. Questo porterà a migliori prestazioni anche su circuiti più complessi.
Resumo:
Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Gli attuali metodi di analisi agli elementi finiti (FEM) e le tecnologie CAE (Computer-Aided Engineering) non sono in grado di studiare modelli 3D di componenti stampati, dal momento che il risultato finale dipende dai parametri di processo e ambientali. Per questo motivo, è necessario uno studio approfondito della meso struttura del componente stampato per estendere l’analisi FEM anche a questa tipologia di componenti. Lo scopo del lavoro proposto è di creare un elemento omogeneo che rappresenti accuratamente il comportamento di un componente realizzato in stampa 3D FDM, questo avviene attraverso la definizione e l’analisi di un volume rappresentativo (RVE). Attraverso la tecnica dell’omogeneizzazione, il volume definito riassume le principali caratteristiche meccaniche della struttura stampata, permettendo nuove analisi e ottimizzazioni. Questo approccio permette di realizzare delle analisi FEM sui componenti da stampare e di predire le proprietà meccaniche dei componenti a partire da determinati parametri di stampa, permettendo così alla tecnologia FDM di diventare sempre di più uno dei principali processi industriali a basso costo.
Resumo:
Trattamento dati, modellazione e calibrazione di un motore da competizione
Resumo:
Lo studio di modelli teorici e matematici della memoria semantica ricopre un ruolo importante nelle neuroscienze cognitive. I modelli neuro-computazionali sviluppati negli ultimi decenni vengono impiegati per spiegare e simulare come le informazioni recepite dall’esterno vengono memorizzate e successivamente utilizzate. In questo elaborato si sviluppa un modello di rete semantica per il riconoscimento di concetti, definiti come insieme di caratteristiche. Fondamentale è il ruolo assunto dalle diverse proprietà, che sono state suddivise fra salienti e marginali, distintive e condivise. I concetti presi in considerazione con le rispettive feature, fanno parte di un ampio data set fornito dalla Dott.ssa Catricalà. La rete sviluppata rientra tra i modelli di massa neuronale che considera quattro popolazioni di neuroni: piramidali, inter-neuroni eccitatori, inter-neuroni inibitori lenti e inter-neuroni inibitori veloci. Il modello sviluppato si basa sullo studio del professor Ursino et al. e utilizza oscillatori in banda gamma. Tramite sincronizzazione di queste oscillazioni è possibile memorizzare concetti e successivamente recuperarli, mantenendoli in memoria simultaneamente. Il richiamo di più concetti contemporaneamente avviene tramite desincronizzazione delle oscillazioni ad opera di un inibitore globale, modellato tramite funzione a gradino. Per modellare l’apprendimento della rete è stata utilizzata la regola di Hebb, sfruttando soglie pre e post-sinaptiche differenti così da costruire sinapsi asimmetriche che permettono una differenziazione delle feature.
Resumo:
La risposta sismica del patrimonio edilizio in muratura è molto articolata e richiede una completa comprensione del comportamento delle strutture stesse nel caso in cui siano soggette ad azione sismica, unitamente a corrette ed esaustive valutazioni numeriche. Questo elaborato è volto alla comprensione del fenomeno chiamato effetto flangia, ovvero l’interazione reciproca di pareti in muratura incidenti, mediante uno studio parametrico. Infatti, tale aspetto dipende da diversi parametri, tra i quali l’ammorsamento, lo spessore e le proporzioni tra i muri incidenti giocano un ruolo principale. Mediante un software ad elementi finiti (ABAQUS) è stato possibile implementare uno script di generazione dei modelli basato sui diversi parametri geometrici (lunghezza della parete incidente e della parete trasversale, e la loro posizione relativa) e su due diverse condizioni di vincolamento dei modelli. Inoltre, si è presa in considerazione la variabilità del carico verticale, stimandola in relazione al valore di resistenza a compressione della muratura: da un valore molto ridotto (5%), fino ad arrivare ad un valore elevato di compressione verticale (30%). L’analisi dei risultati utilizza le convenzionali curve di pushover per strutture in muratura costruite secondo i dettami della normativa tecnica italiana. Tali curve sono analizzate in funzione della percentuale di pressione che viene applicata catturando per ogni caso notevole l’effetto degli altri parametri variabili cercando quindi di descrivere la presenza dell’effetto flangia, ovvero evidenziando le variazioni della risposta strutturale (massimo taglio, duttilità, tipo di crisi etc.) quando è presente una interazione tra due pareti incidenti.
Resumo:
L'oggetto della tesi è la modellazione numerica di pali di fondazione per turbine eoliche in ambiente offshore. Il metodo di modellazione comprende l'interpretazione di prove CPT per l'estrapolazione dei parametri geotecnici del terreno, la creazione di un modello dell'interazione tra struttura e terreno tramite il software agli elementi finiti Abaqus, la sua verifica, l'ottimizzazione dell'estensione del modello del terreno e della mesh e la simulazione numerica del comportamento di pali caricati assialmente in compressione. Grazie al confronto con i risultati di test su modelli fisici, eseguiti nel laboratorio dell'istituto Fraunhofer IWES di Hannover, di tre pali aventi la stessa geometria ma installati in punti con diverse condizioni di compattazione della sabbia, è stata possibile la messa a punto di una strategia di simulazione più accurata possibile e la sua validazione. A conclusione del lavoro è stato eseguito un esempio di design di una fondazione jacket per una turbina eolica offshore.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Il termine go-tv fa riferimento a i sistemi di videocomunicazione collocati a bordo di mezzi di trasporto e in ambienti collegati, ad alto transito di passeggeri. Limitando l’analisi al territorio italiano, la ricerca intende ricostruire le coordinate storiche del suo sviluppo, inquadrandolo entro il più ampio contesto dei media contemporanei. Da un punto di vista teorico, sono considerati sia il legame del mezzo con l’ambiente urbano, sia le interconnessioni tra comunicazione, mobilità e trasporti, riflesse nel particolare statuto sociale e topologico chiamato in causa dai suoi luoghi di consumo. Dall’approvvigionamento alla messa in onda dei contenuti, cardine speculativo del lavoro è la disamina, su base esplorativa, delle consuetudini commerciali e professionali sottese a questo speciale canale di distribuzione audiovisiva, nel quadro di apposite pratiche d’azienda, campionate nel solco degli studi sulla produzione mediale. Tre sono gli snodi principali del progetto: la proposta di una definizione univoca del fenomeno, condivisibile dai diversi attori coinvolti nella filiera, una prima modellizzazione del suo profilo mediale e una mappatura dei principali casi di go-tv rinvenibili a livello nazionale, arricchita da una serie di studi di caso.
Resumo:
La disciplina del pareggio di bilancio è in continua evoluzione, soprattutto a fronte delle nuove esigenze finanziarie per contrastare la pandemia. Questo elaborato, studiando la governance economica strutturata dopo la crisi dei debiti, le derivanti scelte italiane in materia di costituzionalizzazione del pareggio di bilancio e le conseguenze sulle autonomie locali, dimostra come il sistema di gestione delle finanze pubbliche a livello comunitario si stia completando, generando un rapporto normativo ciclico tra il livello europeo e quello locale. Ne è emersa una conflittualità tra le Regioni e lo Stato, che è analizzata al fine di comprendere la giustiziabilità costituzionale del pareggio di bilancio, osservando le esigenze di bilanciamento tra l’equilibrio finanziario e la tutela dei diritti sociali. La Corte Costituzionale ha recentemente conferito, in via giurisprudenziale, alla Corte dei Conti la potestà di svolgere un controllo diretto di costituzionalità del rispetto dell’equilibrio di bilancio degli enti nazionali e territoriali. Particolare attenzione viene data, poi, a seguito degli effetti della pandemia da Covid-19 sui bilanci degli Stati. A fronte della crisi pandemica, per la prima volta dall’approvazione del TSCG, la Commissione ha attivato la clausola di salvaguardia generale per sospendere il Patto di Stabilità (c.d. escape clause). Questa clausola ha permesso ai Paesi di ricorrere agli scostamenti di bilancio. Viene infine analizzato il piano “Next Generation EU”, che centralizza i prestiti verso gli Stati membri nel bilancio dell’Unione ed attinge dal mercato dei capitali le risorse necessarie per finanziare un totale di 750 miliardi, attraverso l’emissione di obbligazioni “Eu Bills”. Per la prima volta nella storia, l’Unione, nelle parole della Commissione, agisce sui mercati come se fosse uno Stato. La portata straordinaria del NGEU, con l’emissione di titoli europei, porta ad una sostanziale mutualizzazione dei debiti ed appare come un passo fondamentale verso il completamento dell’UEM e di un sistema federale.
Resumo:
L'inibizione del complesso respiratorio I (CI) è una strategia antitumorale emergente, sebbene la specificità e l’efficacia di nuovi farmaci restino poco investigate. La generazione di modelli cellulari tumorali nulli per il CI rivela la specificità di EVP 4593 e BAY 872243 nell’indurre gli effetti antiproliferativi non associati all’apoptosi, selettivamente via CI, riducendo eventuali effetti collaterali. Studi preliminari in vivo evidenziano un rallentamento della crescita tumorale negli animali trattati con EVP 4593, il quale emerge come l’inibitore più potente. Per il suo ruolo nella riprogrammazione metabolica, e la sua elevata frequenza di mutazioni nelle neoplasie umane, sono stati investigati i potenziali meccanismi di adattamento alla terapia anti-CI sulla base dello stato mutazionale di TP53. L’auxotrofia da aspartato, un hallmark metabolico delle cellule tumorali con un danno al CI, causa un blocco della sintesi proteica mTORC1-dipendente nelle linee cellulari con una p53 mutata o nulla, inducendo un collasso metabolico. Viceversa, l'attivazione del sensore energetico AMPK promuove un recupero parziale della sintesi di aspartato in linee cellulari con la forma wild type di P53, che è in grado di sostenere una migliore anaplerosi attraverso SCO2, fattore di assemblaggio del complesso respiratorio IV. Al fine di traslare questi risultati in un modello preclinico, si è ottimizzato l’ottenimento di colture di tumori umani espiantati tramite il bioreattore U-CUP. Il modello scelto è stato quello di carcinoma sieroso ad alto grado dell’ovaio (HGSOC), a partire da tessuto congelato, per l’elevata frequenza di mutazioni driver in TP53. I tessuti congelati preservano l'eterogeneità delle componenti cellulari del tessuto di origine e sono caratterizzati da cellule in attiva proliferazione senza attivazione di apoptosi. Dati preliminari mostrano un trend di riduzione dell’area tumorale nei tessuti trattati con EVP 4593 e supportano l’utilizzo del modello preclinico nello studio di nuovi inibitori del CI sfruttando materiale primario di pazienti oncologici.
Resumo:
La ricerca si pone l’obiettivo di comprendere in che modo sia strutturato lo stardom italiano della Generazione Z e quale ruolo svolgano i media nei processi di celebrification delle figure attoriali in esame, nonché l'impatto che queste hanno sulla società stessa. Si intende fornire una maggiore comprensione dei meccanismi alla base del funzionamento dello star system in un contesto storico, culturale e generazionale specifico. Inoltre, il confronto tra il panorama italiano e il landscape internazionale contribuisce a una maggiore comprensione dell’evoluzione e della trasformazione del concetto di celebrità nel contesto globale, oltre che delle modalità attraverso le quali la dimensione italiana si inserisce in questa evoluzione.
Resumo:
Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.