754 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini


Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A metà del secolo scorso in Italia un elevato numero di edifici in cemento armato con struttura a telaio è stata realizzata, in accordo con la Normativa dell’epoca, per resistere unicamente alle azioni verticali presentando un’elevata vulnerabilità nei riguardi delle azioni sismiche. I cambiamenti apportati dalle più recenti Normative volgono l’attenzione alla problematica della vulnerabilità sismica degli edifici esistenti, rendendo l’analisi del comportamento di questi ultimi un tema di grande rilevanza ed attualità. In questo contesto, viene selezionato un edificio esistente per il quale viene valutata la capacità sismica mediante una metodologia analitica denominata SLaMA, e vengono stimate le perdite economiche sismiche utilizzando la metodologia del Sisma Bonus Italiano. L’utilizzo di metodologie di calcolo semplificate rappresenta al giorno d’oggi una robusta alternativa da utilizzare in fase di valutazione progettuale preliminare. Le operazioni eseguite per l’edificio esistente vengono poi ripetute anche per due differenti opzioni di rinforzo strutturale proposte per lo stesso. I risultati ottenuti in termini di capacità sono stati posti a confronto con quelli ricavati dalla modellazione ad elementi finiti su software di calcolo per validare il metodo semplificato, mentre i risultati derivati dal calcolo delle perdite economiche sono stati confrontati con quelli ricavati mediante una metodologia più raffinata di analisi per verificare la corrispondenza e l’accuratezza del parametro di perdita calcolato (PAM). Infine, vengono esposti i risultati ottenuti per gli edifici analizzati proponendo dei confronti fra gli stessi, in modo da individuare la scelta progettuale più conveniente sia in merito alla performance sismica dell’edificio che alla riduzione della perdita economica attesa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il miglioramento dell'assistenza e dei risultati dei pazienti si basano attualmente sullo sviluppo e sulla convalida di nuovi farmaci e tecnologie, soprattutto in campi in rapida evoluzione come la Cardiologia Interventistica. Tuttavia, al giorno d’oggi ancora poca attenzione è rivolta ai professionisti che effettuano tali operazioni, il cui sforzo cognitivo-motorio è essenziale per la riuscita degli interventi. L’ottimizzazione delle prestazioni e dell'organizzazione del lavoro è essenziale in quanto influisce sul carico di lavoro mentale dell'operatore e può determinare l'efficacia dell'intervento e l'impatto sulla prognosi dei pazienti. È stato ampiamente dimostrato che diverse funzioni cognitive, tra cui l'affaticamento mentale comporta alcuni cambiamenti nei segnali elettroencefalografici. Vi sono diversi marcatori dei segnali EEG ciascuno con una determinata ampiezza, frequenza e fase che permettono di comprendere le attività cerebrali. Per questo studio è stato utilizzato un modello di analisi spettrale elettroencefalografica chiamato Alpha Prevalence (AP), che utilizza le tre onde alpha, beta e theta, per mettere in correlazione i processi cognitivi da un lato e le oscillazioni EEG dall’altro. Questo elaborato, condotto insieme all’azienda Vibre, prende in esame il cambiamento dell’AP, all’interno di una popolazione di cardiologi interventisti che effettuano interventi in cath-lab presso l’ospedale universitario di Ferrara, per valutare la condizione di affaticamento mentale o di eccessiva sonnolenza. L’esperimento prevede la registrazione del segnale EEG nei partecipanti volontari durante gli interventi e durante le pause nel corso dell’intero turno di lavoro. Lo scopo sarà quello di rilevare i cambiamenti nella metrica dell’alpha prevalence al variare del carico attentivo: ossia al variare delle risorse attentive richieste dal compito in relazione all’aumentare del tempo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Un problema frequente nell'analisi dei dati del mondo reale è quello di lavorare con dati "non coerenti", poiché raccolti a tempi asincroni o a causa di una successiva modifica "manuale" per ragioni che esulano da quelle matematiche. In particolare l'indagine dell'elaborato nasce da motivazioni di tipo finanziario, dove strumenti semplici come le matrici di correlazione, che sono utilizzate per capire le relazioni tra vari titoli o strategie, non rispettano delle caratteristiche cruciali a causa dell'incoerenza dei dati. A partire da queste matrici "invalide" si cerca la matrice di correlazione più vicina in norma, in modo da mantenere più informazioni originali possibili. Caratterizzando la soluzione del problema tramite analisi convessa, si utilizza il metodo delle proiezioni alternate, largamente utilizzato per la sua flessibilità anche se penalizzato dalla velocità di convergenza lineare. Viene quindi proposto l'utilizzo dell'accelerazione di Anderson, una tecnica per accelerare la convergenza dei metodi di punto fisso che, applicata al metodo di proiezione alternata, porta significativi miglioramenti in termini di tempo computazionale e numero di iterazioni. Si mostra inoltre come, nel caso di varianti del problema, l'applicazione dell'accelerazione di Anderson abbia un effetto maggiore rispetto al caso del problema "classico".

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il continuo aumento del consumo energetico e l’aggravarsi delle condizioni climatiche hanno incrementato la necessità di una produzione più intensa e meno inquinante. Tra le numerose alternative energetiche che si possono annoverare, quella di particolare interesse `e la fusione nucleare. Nello specifico si analizzerà una ben determinata tipologia di prototipi di reattori, la configurazione Tokamak a confinamento elettromagnetico del plasma.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La ventilazione meccanica è un utile strumento per far fronte a patologie respiratorie, ma per avere un risultato ottimale è necessario impostare il ventilatore in modo personalizzato, al fine di rispettare la meccanica respiratoria di ogni paziente. Per far questo si possono utilizzare modelli della meccanica respiratoria dello specifico paziente, i cui parametri devono essere identificati a partire dalla conoscenza di variabili misurabili al letto del paziente. Schranz et al. hanno proposto l’utilizzo di un nuovo metodo, il Metodo Integrale Iterativo, la cui efficacia è stata valutata confrontandone le prestazioni con quelle di altre tecniche consolidate di identificazione parametrica: regressione lineare multipla, algoritmi iterativi e metodo integrale. Tutti questi metodi sono stati applicati ad un modello viscoelastico del secondo ordine della meccanica respiratoria utilizzando sia dati simulati sia dati clinici. Da questa analisi comparata è emerso che nel caso di simulazioni prive di rumore quasi tutti i metodi sono risultati efficaci, seppur con tempi di calcolo diversi; mentre nel caso più realistico con la sovrapposizione del disturbo l’affidabilità ha subito un ridimensionamento notevole in quasi tutti i casi, fatta eccezione per il metodo Simplex Search (SSM) e il Metodo Integrale Iterativo (IIM). Entrambi hanno fornito approssimazioni soddisfacenti con errori minimi, ma la prestazione di IIM è stata decisamente superiore in termini di velocità (fino a 50 volte più rapido) e di indipendenza dai parametri iniziali. Il metodo SSM, infatti, per dare buoni risultati necessita di una stima iniziale dei parametri, dalla quale far partire l’iterazione. Data la sua natura iterativa, IIM ha invece dimostrato di poter arrivare a valori realistici dei parametri anche in caso di condizioni iniziali addirittura fuori dal range fisiologico. Per questo motivo il Metodo IIM si pone come un utile strumento di supporto alla ventilazione meccanica controllata.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il tema centrale di questa Tesi è il cosiddetto "Teorema di Rappresentazione di Riesz" per i funzionali positivi su alcuni spazi di funzione continue. Questo Teorema, caposaldo dell'Analisi Funzionale, è inscindibilmente legato alla Teoria della Misura. Esso, infatti, stabilisce un'importante legame tra funzionali lineari positivi e misure positive di Radon. Dopo un'ampia disamina di questo Teorema, la Tesi si concentra su alcune delle sue Applicazioni in Analisi Reale e in Teoria del Potenziale. Nello specifico, viene provato un notevole risultato di Analisi Reale: la differenziabilità quasi dappertutto delle funzioni monotone su un intervallo reale. Nella dimostrazione di questo fatto, risulta cruciale anche un interessantissimo argomento di "continuità dalla positività", attraverso cui passiamo varie volte nella Tesi. Infatti, esso è determinante anche nelle Applicazioni in Teoria del Potenziale per la costruzione della misura armonica di un aperto regolare e della cosiddetta "misura di Riesz di una funzione subarmonica".

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La prima parte della seguente tesi intende studiare lo stato dell’arte in ambito delle principali tecnologie di smaltimento e di recupero dei rifiuti da costruzione, per poi analizzare le metodologie di analisi del sistema di decostruzione, basate su processi di calcolo semplificati. La seconda parte si concentra invece sul confronto tra due ipotesi di intervento differenti: uno scenario di riqualificazione energetica e uno di demolizione e ricostruzione. L’obiettivo della ricerca è indagare quale dei due interventi sia il più circolare e sostenibile, dal punto di vista ambientale ed economico. Questo obiettivo si concretizza mediante lo svolgimento di una analisi LCA attraverso l’utilizzo del software OneClick LCA. Il caso di studio sul quale viene svolta tale indagine consiste nella villa realizzata agli inizi del Novecento, appartenente al complesso “Corte Palazzo” sito ad Argelato (Bologna). Per lo scenario di demolizione, dopo una prima analisi iniziale delle tecniche circolari da poter applicare più adeguate al contesto esistente, è stato sviluppato un progetto che rispettasse le stesse caratteristiche dimensionali (in termini di sagoma) e le stesse prestazioni dell’involucro (in termini di trasmittanza termica) dell’edificio riqualificato. Il metodo di analisi proposto, reiterabile e proposto ad altri casi di studio, eventualmente implementato per includere tutti i materiali che compongono il sistema costruttivo e non soltanto quelli dell’involucro, rappresenta un efficace strumento di valutazione dell’impatto ambientale ed economico degli interventi, per consentire ai progettisti e ai committenti di compiere scelte più consapevoli.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’affidabilità e la diagnostica sono tematiche che hanno sempre ricoperto un ruolo di fondamentale importanza in ambito elettrico. Il frenetico sviluppo che sta vivendo il settore della trazione elettrica dovuto alle restrizioni introdotte dall’UE sulle emissioni di CO2 ha ulteriormente incrementato la necessità di avere componenti sempre più performanti e affidabili. Questa tesi si concentra su una delle problematiche che interessano un motore elettrico: le scariche parziali. L’obiettivo di questo progetto è proporre un metodo innovativo per la rilevazione di scariche parziali che sfrutta le emissioni elettromagnetiche prodotte dalle scariche stesse. La novità rispetto ai tradizionali metodi è la possibilità di eseguire misure anche mentre il motore è in funzione. Il caso di riferimento è quello di un banco motore ma il metodo proposto, se correttamente validato potrà essere impiegato a bordo veicolo in un contesto di normale funzionamento. I principali dispositivi che compongono il sistema di misura presentato sono: un’antenna log-periodica con banda di lavoro 500MHz a 3GHz, un rilevatore di picco LTC5564 adatto per lavorare a radio frequenze ed un oscilloscopio USB. L’antenna rileva le onde elettromagnetiche prodotte dalle scariche parziali. Il rilevatore di picco, dispositivo la cui uscita è proporzionale all’ampiezza del segnale d’ingresso, fornisce un segnale con spettro in frequenza ridotto rispetto all’originale. L’ oscilloscopio digitale (Picoscope), più economico rispetto ai tradizionali oscilloscopi, consente infine l’acquisizione dei segnali. Le principali “tappe” dello sviluppo del nuovo sistema sono state: la caratterizzazione delle onde elettromagnetiche emesse dalle scariche parziali; il miglioramento del rapporto segnale/rumore; la programmazione di un’interfaccia utente.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Principi di miglioramento del QFD orientati alla fase iniziale della progettazione e, tramite un metodo analitico, alla scelta dei parametri su cui lavorare. Viene inoltre dimostrata, mediante parallelismo, la possibilità di applicare questo metodo anche a casi di natura non ingegneristica, la quale sarà integrata di tutto il procedimento da eseguire per la creazione di un gioco da tavolo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'adroterapia è una delle tecniche utilizzate ad oggi per trattare i tumori ed è basata sull'utilizzo di fasci di particelle cariche, come protoni e ioni carbonio, accelerati sulla zona da trattare. A differenza dei fotoni, utilizzati in radioterapia, le particelle cariche permettono un rilascio di energia più mirato, danneggiando il DNA delle cellule tumorali fino ad impedirne la duplicazione, senza intaccare i tessuti sani circostanti. Per sfruttare al meglio questa tecnica è necessario conoscere a fondo i processi di frammentazione nucleare che possono avere luogo durante il trattamento, sui quali si hanno ancora insufficienti dati sperimentali, in particolare a proposito della frammentazione del bersaglio. L'esperimento FOOT (FragmentatiOn Of Target) nasce proprio per poter misurare le sezioni d'urto differenziali dei processi di frammentazione nucleare alle tipiche energie dell'adroterapia, dai 60 MeV/u ai 400 MeV/u. Allo stato attuale l'esperimento è dotato di un apparato per la rivelazione di frammenti carichi pesanti e uno per quelli leggeri, mentre non ha un sistema di rivelazione per le particelle neutre. Si sta quindi valutando la possibilità di aggiungere rivelatori di neutroni, per esempio gli scintillatori liquidi BC-501A, i quali permettono di discriminare fotoni da neutroni grazie alla diversa forma del segnale prodotto (Pulse Shape Discrimination). Per studiare le prestazioni di questi rivelatori, essi si stanno attualmente testando alla facility n_TOF del CERN con diverse sorgenti di particelle. In questo lavoro di tesi mi sono occupata di analizzare i segnali raccolti da due BC-501A con una sorgente AmBe di raggi γ e neutroni, con schermo in piombo, e con una sorgente 88Y di soli raggi γ, evidenziando le buone capacità di questi rivelatori di identificare correttamente neutroni e fotoni.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Microplastics (MPs) are highly debated emerging contaminants that are widespread on Earth. Nowadays, assessment of the risk that MPs pose on human health and environment were not developed yet, and standardized analytical methods for their quantification in complex matrices do not exist. Therefore, the formulation of standards which regulating MPs emission in the environment is not possible. The purpose of this study was to develop and apply a method for the analysis of MPs in sewage sludges and water from a wastewater treatment plant (WWTP), due to the relevance of those matrices as important pathway for MPs to enter the environment. Seven polymers were selected, because of their relevance on market production and their frequency of occurrence in such plants: polyethylene terephthalate (PET), polyethylene (PE), polypropylene (PP), polystyrene (PS), polycarbonate (PC), polyvinyl chloride (PVC), and nylon 6 (PA-6). In the study, a pre-treatment procedure was optimised using Fenton’s reagent and analyses carried out by combining thermochemolysis with Py-GC-MS after sample filtration on quartz (0.3 µm). Polymer quantification was performed with solid polymer mixture in silica and good correlations were obtained with internal calibration. As main results, Fenton's reagent negatively affected the recovery of some polymers (PP, PE, PS, PA-6) and a possible matrix interference was noticed, especially for PET and PVC. The WWTP allowed a good abatement of PS, PE, PP and PVC (on average 90 %) and comparable results were hypothesised for the other polymers. Polymer concentrations is sewage sludges ranged between < 2 μg/gdry and 3.5 mg/ gdry, for PC and PVC, respectively. Possible overestimations for PET and PVC, due to matrix interreferences, were taken into account and discussed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ogni anno le industrie alimentari che processano frutta e verdura generano un’enorme quantità di sottoprodotti, tra cui semi, bucce e sansa, che contengono grandi quantità di composti bioattivi come polisaccaridi, fibre alimentari e polifenoli. Per quanto riguarda il settore delle mele, uno dei frutti più consumati al mondo, solo il 70% di queste vengono consumate come fresche, mentre, il 25-30% viene scartato durante le fasi di produzione del succo, di sidro o di aceto di mele. Il principale sottoprodotto ottenuto da queste lavorazioni prende il nome di sansa di mela, la cui composizione è complessa (fibre alimentari, zuccheri fermentescibili, minerali, vitamine, fenoli, carotenoidi, ecc.) e dipende dalla varietà del frutto e dalla tecnologia di lavorazione. La sansa viene utilizzata in applicazioni alimentari e mangimistiche, ma anche nei sistemi di digestione anaerobica. Nonostante ciò, a causa della mancanza di tecniche di estrazione sostenibili, il valore di questi sottoprodotti è considerato trascurabile paragonato a quello di frutta e verdura processata. I metodi di estrazione convenzionali presentano alcune limitazioni in termini di tempo, energia e quantità di solvente utilizzato. L'estrazione assistita da ultrasuoni (UAE) con sonotrodo, tecnica innovativa non termica, permette di estrarre componenti bioattivi in ​​brevissimo tempo, a bassa temperatura e con poco solvente. Tra i componenti bioattivi presenti nella sansa di mela, i composti fenolici rappresentano una classe varia ed interessante, in particolare per la loro azione positiva sulla salute umana. La messa a punto di un metodo completo e affidabile per l’estrazione e per la caratterizzazione dei composti fenolici bioattivi nella mela, utilizzando HPLC-ESI-TOF-MS come potente tecnica analitica, è stato uno degli obiettivi principali di tutta la sperimentazione.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La tesi ha lo scopo di illustrare come sia possibile l’applicazione del metodo biodinamico prendendo come caso studio Tenuta Mara, un’azienda situata nelle colline riminesi. Dapprima viene analizzato il pensiero di Rudolf Steiner, ideatore della teoria che, attraverso le otto conferenze tenute nel 1924 a Koberwitz, rende noti i risultati delle sue ricerche sperimentali avviate nel 1922, derivate da una visione del mondo dove le forze cosmiche, i pianeti e le costellazioni creano un equilibrio tra loro, dove l’uomo si integra pienamente rispettando i voleri della terra. Viene anche affrontata una parte relativa al quadro normativo, facendo un excursus dal marchio Demeter del 1927, al primo Regolamento CEE 2092/ 91 relativo al biologico, fino alla recente legge n. 23 del 9 Marzo 2022 in Italia. Si passa così da una prima parte teorica alla seconda, dove questa viene messa in pratica. Tenuta Mara ha fatto dell’attenzione verso la sostenibilità, riguardante i materiali ecologici utilizzati nella struttura, del risparmio energetico su tutto il processo produttivo e della gestione delle acque consapevoli i propri punti cardine. Le pratiche della viticoltura biodinamica si fondono con la passione per il vino, per l’arte e la musica, con la decisione di ridurre al minimo l’intervento dell’uomo durante tutto il processo enologico, dando alla natura il potere di sceglierne il percorso. Attraverso il supporto dell’enologo viene compreso appieno lo spirito della Tenuta, ponendo particolare attenzione sul processo di vinificazione in bianco per la produzione del Maramato, un vino color del rame, derivato dalle uve di Sangiovese.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'obbiettivo della seguente tesi è quello di analizzare quali sono ad oggi i migliori framework per lo sviluppo di software in Mixed Reality e studiare i design pattern più utili ad uno sviluppatore in questo ambito. Nel primo capitolo vengono introdotti i concetti di realtà estesa, virtuale, aumentata e mista con le relative differenze. Inoltre vengono descritti i diversi dispositivi che consentono la realtà mista, in particolare i due visori più utilizzati: Microsoft Hololens 2 e Magic Leap 1. Nello stesso capitolo vengono presentati anche gli aspetti chiave nello sviluppo in realtà mista, cioè tutti gli elementi che consentono un'esperienza in Mixed Reality. Nel secondo capitolo vengono descritti i framework e i kit utili per lo sviluppo di applicazioni in realtà mista multi-piattaforma. In particolare vengono introdotti i due ambienti di sviluppo più utilizzati: Unity e Unreal Engine, già esistenti e non specifici per lo sviluppo in MR ma che diventano funzionali se integrati con kit specifici come Mixed Reality ToolKit. Nel terzo capitolo vengono trattati i design pattern, comuni o nativi per applicazioni in realtà estesa, utili per un buono sviluppo di applicazioni MR. Inoltre, vengono presi in esame alcuni dei principali pattern più utilizzati nella programmazione ad oggetti e si verifica se e come sono implementabili correttamente su Unity in uno scenario di realtà mista. Questa analisi risulta utile per capire se l'utilizzo dei framework di sviluppo, metodo comunemente più utilizzato, comporta dei limiti nella libertà di sviluppo del programmatore.