999 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
Scopo del presente lavoro è la presentazione del codice di calcolo semplificato adoperato nella sezione “Simulatore fotovoltaico” presente sul portale www.energia.cnr.it del progetto CNR ENERGY+. Utilizzando i valori reali di radiazione solare misurati dalle stazioni meteorologiche installate presso alcune sedi del CNR il codice, con appropriati algoritmi, generala scomposizione della radiazione sul piano orizzontale e su superfici inclinate e variamente orientate, in modo da pervenire alla potenza prodotta da un ipotetico impianto fotovoltaico posto sullo stesso sito di ubicazione della stazione.
Resumo:
Il progetto di dottorato che verrà presentato in questa tesi è focalizzato sullo sviluppo di un metodo sperimentale per la produzione di protesi personalizzate utilizzando il processo di fabbricazione additiva di Selective Laser Melting (SLM). L’obiettivo è quello di definire una condizione di processo ottimizzata per applicazioni in ambito chirurgico che possa essere generalizzabile, ovvero che ne garantisca la riproducibilità al variare dell’anatomia del paziente e che rappresenti la base per estendere il metodo ad altre componenti protesiche. Il lavoro si è sviluppato lungo due linee principali, la cui convergenza ha permesso di realizzare prototipi di protesi complete utilizzando un solo processo: da una parte la produzione di componenti a massima densità per il raggiungimento di elevate resistenze meccaniche, buona resistenza ad usura e corrosione e controllo di tensioni residue e deformazione delle parti stampate. Dall’altra si sono studiate strutture reticolari a geometria e porosità controllata per favorire l’osteointegrazione della componente protesica post impianto. In questo studio sono stati messe a confronto le possibili combinazioni tra parametri di processo e sono state individuate le correlazioni con le proprietà finali dei componenti stampati. Partendo da queste relazioni si sono sviluppate le strategie tecnologiche per la progettazione e la produzione dei componenti. I test sperimentali svolti e i risultati ottenuti hanno dimostrato la fattibilità dell’utilizzo del processo SLM per la produzione di protesi personalizzate e sono stati fabbricati i primi prototipi funzionali. La fabbricazione di protesi personalizzate richiede, però, anche la progettazione e la produzione di strumentario chirurgico ad hoc. Per questo motivo, parallelamente allo studio della lega di Cromo Cobalto, sono stati eseguiti i test anche su campioni in INOX 316L. Anche in questo caso è stato possibile individuare una finestra operativa di processo che garantisse proprietà meccaniche comparabili, e in alcuni casi superiori, a quelle ottenute con processi convenzionali.
Resumo:
La chirurgia conservativa o l’esofagectomia, possono essere indicate per il trattamento della disfagia nell’acalasia scompensata. L’esofagectomia è inoltre finalizzata alla prevenzione dello sviluppo del carcinoma esofageo. Gli obiettivi erano: a) definire prevalenza e fattori di rischio per il carcinoma epidermoidale; b) confrontare i risultati clinici e funzionali di Heller-Dor con pull-down della giunzione esofagogastrica (PD-HD) ed esofagectomia. I dati in analisi, ricavati da un database istituito nel 1973 e finalizzato alla ricerca prospettica, sono stati: a) le caratteristiche cliniche, radiologiche ed endoscopiche di 573 pazienti acalasici; b) il risultato oggettivo e la qualità della vita, definita mediante questionario SF-36, dopo intervento di PD-HD (29 pazienti) e dopo esofagectomia per acalasia scompensata o carcinoma (20 pazienti). Risultati: a) sono stati diagnosticati 17 carcinomi epidermoidali ed un carcinosarcoma (3.14%). Fattori di rischio sono risultati essere: il diametro esofageo (p<0.001), il ristagno esofageo (p<0.01) e la durata dei sintomi dell’acalasia (p<0.01). Secondo l’albero di classificazione, soltanto i pazienti con esito insufficiente del trattamento ai controlli clinico-strumentali ed acalasia sigmoidea presentavano un rischio di sviluppare il carcinoma squamocellulare del 52.9%. b) Non sono state riscontrate differenze statisticamente significative tra i pazienti sottoposti ad intervento conservativo e quelli trattati con esofagectomia per quanto concerne l’esito dell’intervento valutato mediante parametri oggettivi (p=0.515). L’analisi della qualità della vita non ha evidenziato differenze statisticamente significative per quanto concerne i domini GH, RP, PF e BP. Punteggi significativamente più elevati nei domini RE (p=0.012), VT (p<0.001), MH (p=0.001) e SF (p=0.014) sono stati calcolati per PD-HD rispetto alle esofagectomie. In conclusione, PD-HD determina una miglior qualità della vita, ed è pertanto la procedura di scelta per i pazienti con basso rischio di cancro. A coloro che abbiano già raggiunto i parametri di rischio, si offrirà l’esofagectomia o l'opzione conservativa seguita da protocolli di follow-up.
Resumo:
Oggetto del presente studio è un'analisi del genere testuale del contratto di compravendita immobiliare negli ordinamenti di Italia, Germania e Austria in un'ottica sincronica e pragmatica. Il testo è considerato come un atto comunicativo legato a convenzioni prestabilite e volto ad assolvere a specifiche funzioni sociali. L'obbiettivo principale del lavoro è lo sviluppo di un modello di analisi testuale che possa evidenziare l'interazione tra la funzione primaria e l'assetto macro- e microstrutturale di questo genere testuale, ovvero tra il piano giuridico e quello linguistico-testuale. L'analisi svolta permette inoltre di confrontare tre sistemi giuridici rispetto alla modalità di attuare questo negozio, nonché le lingue italiana e tedesca ed altresì due varietà di quest'ultima. Il corpus è composto da 40 atti autentici e 9 atti da formulari, compresi in un arco temporale che va dal 2000 al 2018. L'analisi parte con la definizione delle coordinate intra-ed extratestuali che determinano questo genere testuale e da una sua classificazione all'interno dei testi dell'ambito giuridico. Su questa base, i contratti dei corpora di Italia, Germania e Austria vengono analizzati separatamente rispetto alla loro macrostruttura, comprendendo in ciò tre piani macrostrutturali, ovvero quello giuridico da un lato e quelli funzionale e tematico dall'altro. L'interazione tra la funzione giuridica e l'assetto linguistico-testuale del contratto di compravendita immobiliare emerge in particolare a livello di quello funzionale, ossia relativo alla sequenza delle funzioni linguistiche realizzate sulla base dei contenuti giuridici. I risultati evinti dall'analisi dei tre corpora sono, infine, messi a confronto e integrati con una classificazione delle forme verbali che caratterizzano determinati macro-ambiti d'uso/funzionali all'interno di questo genere testuale, ovvero la realizzazione di specifiche funzioni linguistiche e giuridiche. Il metodo proposto offre nuovi spunti per ricerche future, tanto nell'ambito della linguistica contrastiva applicata a testi specialistici, che della traduzione e linguistica giuridica.
Resumo:
Le tecniche di Machine Learning sono molto utili in quanto consento di massimizzare l’utilizzo delle informazioni in tempo reale. Il metodo Random Forests può essere annoverato tra le tecniche di Machine Learning più recenti e performanti. Sfruttando le caratteristiche e le potenzialità di questo metodo, la presente tesi di dottorato affronta due casi di studio differenti; grazie ai quali è stato possibile elaborare due differenti modelli previsionali. Il primo caso di studio si è incentrato sui principali fiumi della regione Emilia-Romagna, caratterizzati da tempi di risposta molto brevi. La scelta di questi fiumi non è stata casuale: negli ultimi anni, infatti, in detti bacini si sono verificati diversi eventi di piena, in gran parte di tipo “flash flood”. Il secondo caso di studio riguarda le sezioni principali del fiume Po, dove il tempo di propagazione dell’onda di piena è maggiore rispetto ai corsi d’acqua del primo caso di studio analizzato. Partendo da una grande quantità di dati, il primo passo è stato selezionare e definire i dati in ingresso in funzione degli obiettivi da raggiungere, per entrambi i casi studio. Per l’elaborazione del modello relativo ai fiumi dell’Emilia-Romagna, sono stati presi in considerazione esclusivamente i dati osservati; a differenza del bacino del fiume Po in cui ai dati osservati sono stati affiancati anche i dati di previsione provenienti dalla catena modellistica Mike11 NAM/HD. Sfruttando una delle principali caratteristiche del metodo Random Forests, è stata stimata una probabilità di accadimento: questo aspetto è fondamentale sia nella fase tecnica che in fase decisionale per qualsiasi attività di intervento di protezione civile. L'elaborazione dei dati e i dati sviluppati sono stati effettuati in ambiente R. Al termine della fase di validazione, gli incoraggianti risultati ottenuti hanno permesso di inserire il modello sviluppato nel primo caso studio all’interno dell’architettura operativa di FEWS.
Resumo:
Background e scopo: Tradizionalmente la cardiomiopatia amiloidotica (CA) è stata considerata una cardiomiopatia restrittiva, ma studi recenti hanno evidenziato il ruolo anche della disfuzione sistolica nella sua fisiopatologia. In questo contesto recente, raramente è stato indagato il profilo emodinamico invasivo. Lo scopo dello studio è stato quello di caratterizzare il profilo emodinamico, strutturale e funzionale della CA nelle tre principali eziologie (amiloidosi da catene leggere (AL), amiloidosi transtiretino-relata (ATTR) mutata (ATTRm) e ‘wild-type’ (ATTRwt)), valutare le differenze del profilo ecocardiografico ed emodinamico nelle fasi diverse di malattia ed esplorare il ruolo prognostico delle principali variabili cliniche e strumentali nella CA. Metodi e risultati: Abbiamo analizzato retrospettivamente i dati di 224 pazienti con CA (AL, n=93; ATTRm, n=66; ATTRwt, n=65). Rispetto all'ATTRwt, i pazienti con AL presentano un minor interessamento morfologico cardiaco, ma dati emodinamici paragonabili, caratterizzati da elevate pressioni di riempimento biventricolari e riduzione della gittata sistolica. L’ATTRm, nonostante il profilo ecocardiografico analogo all’ATTRwt, mostra un quadro emodinamico migliore. Gli indici di funzione diastolica e sistolica longitudinale del ventricolo sinistro (Vsn) sono alterati fin dagli stadi iniziali della malattia, mentre la frazione di eiezione (FEVsn) rimane preservata nella maggior parte dei pazienti, anche nelle fasi avanzate (FEVsn 50 [37-60]%; FEVsn <40% nel 28% dei pazienti NYHA III / IV). All'analisi multivariata, età, NYHA III/I, eziologia AL, frazione di contrazione miocardica (MCF), indice cardiaco (CI) e pressione atriale destra (RAP) sono indipendentemente associati a eventi clinici avversi. Conclusioni Questo studio conferma la complessa fisiopatologia della CA, in cui la disfunzione diastolica è accompagnata da una funzione sistolica longitudinale anormale sin dalle fasi iniziali della malattia. L'AL e l'ATTRwt, nonostante diversi gradi di alterazioni morfologiche, hanno un profilo emodinamico simile; l'ATTRm, invece, presenta un quadro emodinamico migliore. Tra i parametri strumentali, MCF, CI e RAP emergono come predittori significativi di eventi avversi.
Resumo:
La tesi tratta del metodo PEA per la misura della carica di spazio. Viene fatta una valutazione sull'applicazione del metodo e sul significato dei risultati per le prove sui cavi modello. Utilizzando quanto ottenuto dalle prove si fa poi una riflessione su come sia più sensato calcolare il campo elettrico, partendo dalla distribuzione di carica ottenuta. Infine verra mostrata una prova su un cavo full size (progetto IFA2) per avere un riscontro degli studi fatti in laboratorio su un test di fabbrica. Le conclusioni si concentreranno sui problemi attuali relativi al sistema di misura e sulle possibili migliorie future.
Resumo:
Da alcuni anni in ambiente enologico si conducono studi volti ad individuare prodotti tecnologici o tecnologie in grado di sostituire o diminuire l’impiego dell’anidride solforosa nei processi di vinificazione. . Quest’ultima. infatti, è ormai da tempo considerata tra gli additivi che maggiormente impattano sulle caratteristiche di sicurezza d’uso dei prodotti enologici, possedendo conclamati rilievi di allergenicità e tossicità di tipo acuto e cronico. Il chitosano è un polisaccaride recentemente autorizzato in enologia che ha dimostrato alcune interessanti attività, utili per la definizione di protocolli di vinificazione a ridotto utilizzo di anidride solforosa. L’obbiettivo di questa tesi è quello di studiare il comportamento del chitosano nell’ambito del processo di produzione di vini spumanti prodotti secondo il metodo classico. Allo scopo, il polisaccaride è stato aggiunto in fase di presa di spuma e l’effetto della sua presenza è stato valutato nei mesi successivi, fino alla sboccatura, effettuata a 5 mesi dall’inizio della fermentazione secondaria. Sulle tre tesi approntate (una con nessuna aggiunta, una con chitosano e una con acido malico e chitosano) sono state condotte analisi della componente fissa e volatile dei prodotti ottenuti. I risultati hanno dimostrato come i vini rifermentati con chitosano possano presentare interessanti caratteristiche chimico-sensoriali e come l’impiego di questo coadiuvante sia meritevole di ulteriori approfondimenti, destinati a meglio definire le modalità di utilizzo per la produzione di vini spumanti in assenza di anidride solforosa aggiunta.
Resumo:
In questo lavoro di tesi sono stati preparati elettrocatalizzatori metallici 3D di argento supportato su schiume di rame a cella aperta, impiegandoli nella riduzione selettiva del 5-idrossimetilfurfurale (HMF) a 2,5-bisidrossimetilfurano (BHMF). L’utilizzo di questi supporti consente di incrementare l’area superficiale a disposizione, rispetto ai supporti 2D. La preparazione delle schiume è stata effettuata utilizzando due metodi di deposizione: spostamento galvanico ed elettrodeposizione. Lo scopo del lavoro è valutare l’influenza del metodo di deposizione sull’attività catalitica, per questo motivo le schiume bimetalliche ottenute sono state confrontate a quelle monometalliche di rame e argento. Inoltre è stato studiato l’effetto della concentrazione di HMF sulle prestazioni dei catalizzatori, con l’obiettivo finale di ottenere un sistema attivo a concentrazioni industriali. Le schiume sono state sottoposte a cicli di prove catalitiche a concentrazione di HMF crescente 0,02 M, 0,05 M e 0,10 M e caratterizzate prima e dopo la sequenza di prove con analisi SEM-EDS, XRD, spettroscopia raman. Le soluzioni sono state analizzate mediante ICP, GC-MS, ESI-MS. Con lo spostamento galvanico si ha la crescita di dendriti, formate prevalentemente sui bordi, e agglomerati di particelle nelle zone interne, mentre per elettrodeposizione si ottiene minore formazione di dendriti e particelle mediamente più piccole. La presenza di argento come fase attiva non migliora la conversione rispetto alle schiume monometalliche, ma causa un aumento di selettività ed efficienza faradica. Incrementando la concentrazione di HMF tutti i campioni presentano un aumento di conversione e un decremento di selettività ed efficienza faradica. Il catalizzatore ottenuto per spostamento galvanico, mostra prestazioni migliori a concentrazioni elevate e nelle prove di stabilità non dà segni di disattivazione, al contrario della schiuma preparata per elettrodeposizione che risulta leggermente disattivata.
Resumo:
Il teff (Eragrostis tef) è uno pseudocereale originario dell’Etiopia che recentemente si sta diffondendo in vari Paesi. Infatti presenta numerose caratteristiche positive (buon contenuto di fibra e composti fenolici, indice glicemico ridotto, assenza di glutine) che potrebbero renderlo adatto alla formulazione di alimenti funzionali o arricchiti, destinati a categorie della popolazione con particolari esigenze (diabetici, celiaci, neonati). I dati attualmente disponibili riguardo il profilo fenolico del teff sono estremamente carenti. Pertanto, lo scopo di questa tesi è la determinazione dei composti fenolici liberi e legati in una farina di teff, mediante la combinazione della cromatografia liquida ad alte prestazioni e la spettrometria di massa con analizzatore a tempo di volo (HPLC-ESI-TOF-MS). L’estrazione dei fenoli liberi e legati dal campione di farina è stata condotta seguendo il metodo messo a punto da Verardo et al. (2011). Dall'analisi dei rispettivi base peak chromatogram sono stati individuati 15 composti fenolici nell'estratto solubile e 5 nell'estratto insolubile. I fenoli liberi riscontrati sono esclusivamente flavonoidi: 11 derivati dall'apigenina, 2 derivati dalla luteolina e 2 composti acetilati derivati dalla vitexina, identificati per la prima volta nella farina di teff. L'estratto insolubile risulta composto da acidi fenolici, rappresentati dall'acido ferulico e i suoi derivati. Non è stato possibile effettuare la determinazione dei composti fenolici totali mediante saggio al reattivo di Folin-Ciocalteu a causa dell’intorbidimento dell’estratto in fase di diluizione: questo ha confermato il limite di tale metodologia, sebbene ampiamente utilizzata, nella determinazione dei composti fenolici.
Resumo:
L’obiettivo della tesi è stato quello di valutare la vulnerabilità sismica di edifici ordinari in muratura tipici del costruito del Comune di Maranello (MO), e di stimare le curve di fragilità. Vengono individuate le tipologie strutturali in muratura tipiche degli edifici del Comune, che viene suddiviso in comparti secondo il metodo CARTIS. Lo scopo è stato di definire quali sono le tipologie in muratura più vulnerabili, e quindi i comparti del Comune costituiti dagli edifici in muratura più fragili dal punto di vista sismico. La valutazione della vulnerabilità sismica di alcuni edifici rappresentativi delle tipologie murarie esistenti nel territorio analizzato è stata eseguita mediante due metodologie: la prima è una metodologia speditiva chiamata RE.SIS.TO., una valutazione semplificata sviluppata dall’Università degli Studi di Bologna, con l’obiettivo di definire lo stato di criticità degli edifici e di definire la priorità di intervento in tempi brevi; la seconda è una metodologia di valutazione più accurata eseguita attraverso l’analisi statica non lineare con il software 3Muri, un programma per il calcolo sismico delle strutture in muratura.
Resumo:
L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.
Resumo:
A metà del secolo scorso in Italia un elevato numero di edifici in cemento armato con struttura a telaio è stata realizzata, in accordo con la Normativa dell’epoca, per resistere unicamente alle azioni verticali presentando un’elevata vulnerabilità nei riguardi delle azioni sismiche. I cambiamenti apportati dalle più recenti Normative volgono l’attenzione alla problematica della vulnerabilità sismica degli edifici esistenti, rendendo l’analisi del comportamento di questi ultimi un tema di grande rilevanza ed attualità. In questo contesto, viene selezionato un edificio esistente per il quale viene valutata la capacità sismica mediante una metodologia analitica denominata SLaMA, e vengono stimate le perdite economiche sismiche utilizzando la metodologia del Sisma Bonus Italiano. L’utilizzo di metodologie di calcolo semplificate rappresenta al giorno d’oggi una robusta alternativa da utilizzare in fase di valutazione progettuale preliminare. Le operazioni eseguite per l’edificio esistente vengono poi ripetute anche per due differenti opzioni di rinforzo strutturale proposte per lo stesso. I risultati ottenuti in termini di capacità sono stati posti a confronto con quelli ricavati dalla modellazione ad elementi finiti su software di calcolo per validare il metodo semplificato, mentre i risultati derivati dal calcolo delle perdite economiche sono stati confrontati con quelli ricavati mediante una metodologia più raffinata di analisi per verificare la corrispondenza e l’accuratezza del parametro di perdita calcolato (PAM). Infine, vengono esposti i risultati ottenuti per gli edifici analizzati proponendo dei confronti fra gli stessi, in modo da individuare la scelta progettuale più conveniente sia in merito alla performance sismica dell’edificio che alla riduzione della perdita economica attesa.
Resumo:
Il miglioramento dell'assistenza e dei risultati dei pazienti si basano attualmente sullo sviluppo e sulla convalida di nuovi farmaci e tecnologie, soprattutto in campi in rapida evoluzione come la Cardiologia Interventistica. Tuttavia, al giorno d’oggi ancora poca attenzione è rivolta ai professionisti che effettuano tali operazioni, il cui sforzo cognitivo-motorio è essenziale per la riuscita degli interventi. L’ottimizzazione delle prestazioni e dell'organizzazione del lavoro è essenziale in quanto influisce sul carico di lavoro mentale dell'operatore e può determinare l'efficacia dell'intervento e l'impatto sulla prognosi dei pazienti. È stato ampiamente dimostrato che diverse funzioni cognitive, tra cui l'affaticamento mentale comporta alcuni cambiamenti nei segnali elettroencefalografici. Vi sono diversi marcatori dei segnali EEG ciascuno con una determinata ampiezza, frequenza e fase che permettono di comprendere le attività cerebrali. Per questo studio è stato utilizzato un modello di analisi spettrale elettroencefalografica chiamato Alpha Prevalence (AP), che utilizza le tre onde alpha, beta e theta, per mettere in correlazione i processi cognitivi da un lato e le oscillazioni EEG dall’altro. Questo elaborato, condotto insieme all’azienda Vibre, prende in esame il cambiamento dell’AP, all’interno di una popolazione di cardiologi interventisti che effettuano interventi in cath-lab presso l’ospedale universitario di Ferrara, per valutare la condizione di affaticamento mentale o di eccessiva sonnolenza. L’esperimento prevede la registrazione del segnale EEG nei partecipanti volontari durante gli interventi e durante le pause nel corso dell’intero turno di lavoro. Lo scopo sarà quello di rilevare i cambiamenti nella metrica dell’alpha prevalence al variare del carico attentivo: ossia al variare delle risorse attentive richieste dal compito in relazione all’aumentare del tempo.
Resumo:
Un problema frequente nell'analisi dei dati del mondo reale è quello di lavorare con dati "non coerenti", poiché raccolti a tempi asincroni o a causa di una successiva modifica "manuale" per ragioni che esulano da quelle matematiche. In particolare l'indagine dell'elaborato nasce da motivazioni di tipo finanziario, dove strumenti semplici come le matrici di correlazione, che sono utilizzate per capire le relazioni tra vari titoli o strategie, non rispettano delle caratteristiche cruciali a causa dell'incoerenza dei dati. A partire da queste matrici "invalide" si cerca la matrice di correlazione più vicina in norma, in modo da mantenere più informazioni originali possibili. Caratterizzando la soluzione del problema tramite analisi convessa, si utilizza il metodo delle proiezioni alternate, largamente utilizzato per la sua flessibilità anche se penalizzato dalla velocità di convergenza lineare. Viene quindi proposto l'utilizzo dell'accelerazione di Anderson, una tecnica per accelerare la convergenza dei metodi di punto fisso che, applicata al metodo di proiezione alternata, porta significativi miglioramenti in termini di tempo computazionale e numero di iterazioni. Si mostra inoltre come, nel caso di varianti del problema, l'applicazione dell'accelerazione di Anderson abbia un effetto maggiore rispetto al caso del problema "classico".