754 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
La Brain Computer Interface, con l’acronimo BCI, è un mezzo per la comunicazione tra cervello e macchina. La comunicazione si basa sulla emanazione di segnali elettrici del cervello che vengono rilevati da un dispositivo, il quale invia i segnali digitalizzati ad un elaboratore. I segnali elettrici, chiamati EEG, permettono al cervello di regolare la comunicazione tra le diverse cellule neurali. La BCI intercetta questi segnali e, previa elaborazione, permette di ottenere diversi diagrammi, detti metriche, per poter misurare, sotto svariati aspetti, il funzionamento del cervello. Le ricerche scientifiche sulle EEG hanno rilevato una correlazione tra i segnali elettrici nel cervello di un soggetto con il suo livello di performance e stato emotivo. È quindi possibile comprendere, tramite una serie di parametri, come la mente dei soggetti reagisce a stimoli esterni di svariata tipologia durante lo svolgimento di un’attività. L’elaboratore, che riceve il segnale dalla BCI, è il componente che si occupa di trasformare i segnali elettrici, generati dal cervello e digitalizzati, in risultati facilmente interpretabili dall’utente. Elaborare i segnali EEG in tempo reale porta a dover utilizzare algoritmi creati appositamente per questo scopo e specifici perle metriche preposte. Lo scopo di questa tesi è quello di presentare un progetto sullo sviluppo della fase di smistamento dei dati ricevuti dall’elaboratore. Nel contempo si fornirà una conoscenza scientifica minima per comprendere le scelte fatte. Tale progetto è stato reso possibile dalla collaborazione con l’azienda Vibre, che si dedica allo sviluppo di un sistema comprendente BCI ed elaboratore.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
Vista la crescente necessità di svolgere progetti d'innovazione guidati dalle nuove tecnologie, la presente ricerca risponde all'esigenza di trovare una metodologia efficace per poterli affrontare proficuamente. In un primo momento, l'elaborato propone una metodologia che permette di elaborare una classificazione dei progetti d'innovazione technology-driven in classi ed un pacchetto di tools funzionali al riconoscimento dell'appartenenza alle stesse. In un secondo momento, giunti a comprensione del fatto che ad ognuna delle classi corrisponde uno specifico fine raggiungibile con una specifica metodologia, lo studio descrive la metodologia seguita per raggiungere una efficace e ripetibile elaborazione di principi progettuali, buone pratiche e strumenti che permettano ad una Organizzazione di appropriarsi del valore di una tecnologia General Purpose (GPT) attraverso l'ideazione di soluzioni innovativa. La progettazione è figlia di un approccio di Design Thinking (DT), sia poichè esso è stato usato nello svolgimento stesso della ricerca, sia perchè la metodologia DT è alla base della modellazione del processo proposto per la classe.
Resumo:
Il progetto di tesi si è focalizzato sullo studio della reattività del cluster carbonilico [Rh7(CO)16]3- in presenza del sale Au(Et2S)Cl. Ogni reazione investigata è stata svolta in atmosfera controllata di CO, modificando i rapporti stechiometrici tra il precursore e il sale di Au(I) in diversi solventi. Inizialmente si è tentato di riprodurre la sintesi del cluster bimetallico [Rh20Au7(CO)45]5- già noto, utilizzando Au(Et2S)Cl. Si è poi amplificato lo studio con l’obiettivo principale di sintetizzare nuovi cluster bimetallici ad alta nuclearità. È stato ottenuto un composto nuovo analizzato tramite diffrattometria ai raggi X a cristallo singolo: [Rh22Au3(CO)x]n-. Tramite i dati cristallografici è stato possibile definirne la sola struttura metallica, e nonostante i diversi tentativi, il composto non ha prodotto cristalli migliori per una completa caratterizzazione. Viste le quantità significative di sottoprodotti a bassa nuclearità ottenute nelle reazioni studiate, parallelamente sono state condotte prove di recupero del rodio in quanto metallo prezioso. Infine, è stato ottimizzato un metodo per separare due specie già note con carica negativa simile, [Rh10Au(CO)26]3- e [Rh16Au6(CO)36]4-. Tutti i composti sono stati caratterizzati tramite spettroscopia IR, mentre sul nuovo cluster è stata effettuata anche un’analisi alla spettrometria di massa.
Resumo:
Gli interventi in campo neurologico richiedono un’elevata accuratezza e si basano generalmente su sistemi invasivi. Lo scopo della seguente trattazione è quello di presentare e validare sistemi innovativi per interventi di chirurgia stereotassica caratterizzati da una bassa invasività e una elevata accuratezza. Lo studio, partito dall’analisi dello stato dell’arte, pone la sua attenzione su nuove proposte e le ottimizza, ne ricava dei protocolli attuabili e li valida sperimentalmente. Due sono i punti salienti dell’elaborato: descrivere la procedura innovativa di intervento e i risultati in termini di affidabilità dello stesso. Gli elementi di novità si concentrano sull’ideazione e la realizzazione del sistema di fissaggio al cranio del paziente, elemento fondamentale per un accurato inserimento dell’utensile chirurgico, e sul metodo di verifica dell’accuratezza del sistema proposto. La qualità di tale sistema viene infine decretata dai risultati dei test sperimentali.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Il lavoro svolto in questa tesi si colloca nel contesto della riqualificazione di una struttura in muratura portante esistente tramite cappotto sismico. Ha come oggetto l’analisi della sua risposta meccanica, con particolare attenzione alla modellazione numerica. L’immobile oggetto di studio è edificato nella zona costiera del comune di San Benedetto del Tronto (AP). La prima fase di analisi consiste in un approfondito percorso di conoscenza della struttura, che riguarda un attento studio storico-critico dell’evoluzione strutturale seguito, poi, da un’indagine conoscitiva della geometria della struttura e delle caratteristiche meccaniche dei materiali costituenti. Per migliorare il comportamento dell’edificio sotto carichi sismici, si sceglie di intervenire tramite la realizzazione di un’epidermide sismo-resistente, che deve essere correttamente modellata congiuntamente alla muratura portante. Viene proposta una prima modellazione semplificata nella quale le pareti del cappotto vengono implementate mediante l’utilizzo di elementi bidimensionali, mentre la muratura esistente viene considerata solamente come massa sismica. Nella seconda strategia di modellazione, seppure si mantenga la stessa impostazione per la schematizzazione del cappotto sismico, si avanza l’ipotesi di discretizzare la struttura esistente mediante il metodo a telaio equivalente, per valutare così la ripartizione delle azioni sismiche tra cappotto e muratura. Vengono eseguite tutte le verifiche necessarie per la valutazione di fattibilità dell’opera, esaminando anche i livelli di sicurezza raggiunti per lo stato di progetto. Con entrambe le strategie si raggiunge un’ottima riqualificazione dell’immobile.
Resumo:
Dagli anni '40, la produzione di materiali plastici è aumentata in modo esponenziale. La loro versatilità, resistenza ed economicità li hanno resi accessibili globalmente. Questi vantaggi hanno comportato però molti danni a ecosistemi e specie marine, tra cui anche Caretta caretta. Recenti studi hanno dimostrato, ad esempio, la capacità delle microplastiche di influenzare negativamente l’ambiente di incubazione delle uova, causando impatti sullo sviluppo embrionale e sul successo di schiusa. I metalli pesanti svolgono un ruolo chiave nella contaminazione oceanica poiché molto stabili e non biodegradabili. Gli organismi non riescono quindi a eliminarli, ma tendono ad accumularli nei tessuti, determinando conseguentemente il loro inserimento nella catena trofica. Recentemente, l'analisi di campioni di sangue di esemplari vivi di tartaruga marina ha consentito di studiare le loro potenziali implicazioni sulla salute e sul successo riproduttivo delle popolazioni. Tuttavia, poche informazioni sono ancora disponibili sull'esposizione delle uova ai metalli e sul trasferimento di questi dalla madre all'embrione. In questo lavoro di tesi si è andati quindi a verificare i livelli di esposizione ai metalli pesanti, mediante l’analisi all’ICP-OES delle uova, e i livelli di esposizione alle microplastiche, grazie a un nuovo metodo basato sul principio della flottazione della densità applicato sui campioni di sabbia, nei nidi di C. caretta rinvenuti durante la stagione di deposizione 2021 lungo la costa ionica della provincia di Catanzaro. Successivamente è stata valutata la correlazione tra i livelli di esposizione e il successo di schiusa della specie: i risultati ottenuti hanno permesso di affermare che per le concentrazioni dei metalli si ha una correlazione negativa (p=0,022) tra il contenuto di Pb in tuorlo e albume combinati e il successo di schiusa registrato nei nidi presi in analisi, mentre ciò non è stato possibile per le concentrazioni delle microplastiche.
Resumo:
Le galassie passive sono sistemi dominati da popolazioni stellari vecchie, non mostrano tracce di formazione stellare (spettri compatibili con assenza di righe in emissione e caratterizzati da righe in assorbimento), e ci sono evidenze osservative che indicano che le galassie passive abbiano iniziato ad assemblare la loro massa stellare a z. Gli spettri delle galassie passive conservano traccia dei meccanismi fisici ed evolutivi della loro popolazione stellare. Laddove si hanno a disposizione spettri di buona qualità, ovvero che abbiano un rapporto segnale-rumore elevato, l’informazione contenuta in tali spettri può essere dedotta dalla misura dell’intensità di alcune righe in assorbimento. Burstein et al. (1984) hanno costruito un insieme di indici spettroscopici, chiamato sistema di indici di Lick, i quali misurano l’intensità delle principali righe in assorbimento (nella regione di lunghezze d’onda ottiche tra 4000-6000 Å), in termini di larghezza equivalente. in questa tesi è stato adottato il metodo degli indici di Lick per stimare i parametri evolutivi di un campione di galassie passive. Gli obiettivi principali di questa tesi sono due: 1.) studiare l’evoluzione col redshift dei parametri di età, metallicità totale e abbondanze relative di elementi α rispetto al ferro di un campione di galassie estratto spettroscopicamente dalla SDDS (Moresco et al., 2011). L’obiettivo finale è quello di dedurre informazioni sulla storia di formazione stellare delle galassie del campione. 2.) realizzare una simulazione per valutare la possibilità di misurare gli indici di Lick negli spettri di galassie passive che verranno osservate con la missione futura Euclid. Da questo studio è emerso un chiaro andamento evolutivo del campione in linea con quello previsto dallo scenario evolutivo del mass-downsizing, per il quale la SFH di una popolazione stellare è fortemente vincolata dalla massa della popolazione stessa, nel senso che al crescere della massa la formazione delle galassie passive si colloca in epoche progressivamente più remote, e l’assemblaggio della loro massa stellare avviene in tempi scala via via inferiori. Dalla simulazione è emerso un risultato molto importante che deriva dalla robustezza delle misure del D4000 e riguarda la possibilità di determinare il redshift di galassie a z ≥ 1.5 con Euclid.
Resumo:
Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.
Resumo:
La struttura di un ospedale è notevolmente complessa nella sua organizzazione e conduzione, ed è per di più sollecitata a continue trasformazioni di carattere tecnologico ed organizzativo. Pertanto è essenziale, in una struttura sanitaria, il ruolo svolto dall’Ingegneria Clinica, che è quello dell’applicazione dei metodi e delle competenze specifiche proprie dell’ingegneria all’organizzazione, alla gestione e all’uso sicuro ed appropriato della strumentazione biomedica. Il seguente elaborato tratta le verifiche di sicurezza delle apparecchiature elettromedicali (EM) con una particolare attenzione agli aspetti normativi che le contraddistinguono e al ruolo dell’ingegnere clinico. Parlare di sicurezza per le tecnologie biomediche, significa garantire l’utilizzo delle stesse in assenza di rischi per l’utilizzatore e per il paziente, perciò il concetto di rischio è analizzato accuratamente. Oltre alla manutenzione correttiva è compito dell’ingegnere clinico programmare strategie di manutenzione preventiva per ottimizzare la durata fisiologica degli apparecchi EM e garantirne la qualità delle prestazioni erogate a lungo termine. L’utilizzo o il semplice invecchiamento di una qualsiasi apparecchiatura ne provoca infatti l’usura dei materiali e la deriva delle caratteristiche, aumentando la probabilità di guasto ed avaria. Pertanto la definizione di procedure di verifica elettrica periodica diventa fondamentale per l’individuazione di gran parte di quelle situazioni di compromissione della sicurezza che sono causa di danni e incidenti. Il loro scopo è quello di accertarsi che un’apparecchiatura abbia mantenuto nel tempo le caratteristiche di sicurezza dichiarate dal produttore e certificate dalla marcatura di conformità CE. Per completare l’iter di verifica di sicurezza e definirne il livello minimo accettabile è essenziale eseguire, oltre alle verifiche elettriche, le verifiche funzionali per valutare l’efficacia delle singole funzioni e prestazioni.
Resumo:
Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.
Resumo:
La tesi si pone l'obiettivo di analizzare e approfondire il principio dei lavori virtuali, un importante strumento per la ricerca delle condizioni di equilibrio di un sistema meccanico. L'intera trattazione si svolge nell'ambito della meccanica classica e in un primo momento l'analisi si concentra in ambito statico, successivamente verrà ampliata in ambito dinamico, fino ad enunciare il principio di D'Alembert. Tale principio permette di ricondurre un qualsiasi problema di dinamica ad un equivalente problema di statica, fornendo un metodo generale per lo studio del moto di un qualunque sistema meccanico. La tesi si conclude con un approfondimento storico, in cui si evidenziano le tappe salienti e le personalità matematiche che hanno contribuito all'enunciazione ultima dei due principi citati.
Resumo:
La presente tesi è incentrata nello studio di differenti metodologie per la stima dell'attrito aerodinamico, concentrandosi in particolare modo nella tecnica ottica Oil Film Interferometry (OFI). Scopo principale della tesi è implementare sperimentalmente tale metodo nella galleria del vento CICLoPE e confrontare i risultati ottenuti con quelli derivanti dalle perdite di carico; i valori risultano esser tra loro confrontabili entro un margine di differenza percentuale contenuto. I risultati mostrano un andamento ragionevole al variare del numero di Reynolds, nonostante si discostino di qualche punto percentuale dalle curve provenienti dalla letteratura scientifica.
Resumo:
Nel seguente elaborato è stato sviluppato un metodo di validazione per dispositivi di misura delle tensioni residue mediante la tecnica dell'hole drilling. Esso si basa sul confronto tra tensioni residue ottenute per via teorica e sperimentale su un provino soggetto a carico imposto. Inizialmente si è proceduto attraverso lo studio della normativa di riferimento ASTM E837-20. In essa viene definito il metodo sperimentale di esecuzione dei test di hole drilling e di calcolo delle tensioni residue. In seguito è stata progettata un'attrezzatura di prova in grado di indurre un gradiente di tensione noto nello spessore del provino sollecitato. L'attrezzatura di prova in questione è stata verificata sia mediante calcoli numerici, che mediante software di simulazione agli elementi finiti. La fase di prototipazione seguente ha consentito di realizzare l'attrezzatura necessaria per l'esecuzione dei test sperimentali. Le forature sono state effettuate prima su provini scarichi, al solo scopo di scongiurare la presenza di tensioni residue e, in seguito, su provini soggetti a momento flettente noto. Le deformazioni ottenute tramite le letture degli estensimetri sono state impiegate per il calcolo delle tensioni secondo normativa ASTM E837-20. infine è stato possibile valutare l'efficacia del metodo paragonando tali risultati con quelli teorici.