998 resultados para Tecniche di enhancement, Impronte digitali, Riconoscimento biometrico
Resumo:
Abdominal aortic aneurysm is the pathological dilation of the abdominal tract of the aorta and, if left untreated, could undergo rupture with a mortality rate of up to 90%. EVAR is the most common method for AAA treatment consisting in the internal coverage of the aorta with a metallic stent to isolate the aneurysmatic segment from the systemic circulation. Although EVAR technical success rate is high, reinterventions are common. Among the causes of reinterventions typeII endoleaks are the most frequent and consist in retrograde blood flow into the aneurysmal sac from collateral aortic branches. Continued perfusion of the aneurysm sac may lead to aneurysm rupture, therefore AAA sac embolization is performed using metallic coils. However, the presence of artifacts caused by the presence of metallic coils is a limitation because they are radiopaque and can hamper the endoleak during imaging follow-up. This study is aimed at developing a biocompatible hydrogel that could be injected into the aneurysmal sac and may allow a selective intraprocedural sac embolization to reduce post procedural typeII endoleak and eventual AAA rupture. P(BT75BSI25) was synthesized by polycondensation and its biocompatibility tested to assess whether the polymers had no toxic effects. HUVEC cell line was used to mimic the environment in which the polymer would be in contact with, PBS was used as a positive control and MTT assay was performed to evaluate cellular viability after being in contact with the hydrogel. MTT assay showed no significant difference between PBS and P(BT75BSI25), thus the polymer is biocompatible, as confirmed by the analysis of apoptosis by flow cytometry. An aromatic copolymer was obtained via polycondensation and was found to be biocompatible in contact with endothelial cells. This suggests that the hydrogel could be potentially used in the clinical setting for the treatment of type II endoleak after EVAR.
Resumo:
Con l’aumentare del livello delle manifestazioni sportive d’élite, la biomeccanica dello sport è diventata uno strumento fondamentale per permettere agli atleti di tenere il passo con le difficoltà legate alla competizione. Per riuscire in questo compito, vengono integrate tecnologie sempre più avanzate e fra queste spicca l’elettromiografia di superficie. L’obbiettivo di questo lavoro consiste in una revisione della letteratura per vedere come l’EMG permetta di studiare l’attivazione coordinata di più muscoli ad un’articolazione o ad un intero arto, valutandone le sinergie muscolari, e capire quali vantaggi questo possa portare alla ricerca sportiva. Lo studio è stato limitato all’ambito del ciclismo e della corsa in quanto discipline in cui questa tecnologia è più utilizzata. I risultati hanno mostrato come lo studio delle sinergie muscolari permetta di raggiungere una comprensione più profonda del movimento e come le tecniche di allenamento possano sfruttare questa conoscenza per monitorare gli atleti e raggiungere strategie motorie sempre più efficienti.
Resumo:
Il quark-gluon plasma (QGP) è uno stato della materia previsto dalla cromodinamica quantistica. L’esperimento ALICE a LHC ha tra i suoi obbiettivi principali lo studio della materia fortemente interagente e le proprietà del QGP attraverso collisioni di ioni pesanti ultra-relativistici. Per un’esaustiva comprensione di tali proprietà, le stesse misure effettuate su sistemi collidenti più piccoli (collisioni protone-protone e protone-ione) sono necessarie come riferimento. Le recenti analisi dei dati raccolti ad ALICE hanno mostrato che la nostra comprensione dei meccanismi di adronizzazione di quark pesanti non è completa, perchè i dati ottenuti in collisioni pp e p-Pb non sono riproducibili utilizzando modelli basati sui risultati ottenuti con collisioni e+e− ed ep. Per questo motivo, nuovi modelli teorici e fenomenologici, in grado di riprodurre le misure sperimentali, sono stati proposti. Gli errori associati a queste nuove misure sperimentali al momento non permettono di verificare in maniera chiara la veridicità dei diversi modelli proposti. Nei prossimi anni sarà quindi fondamentale aumentare la precisione di tali misure sperimentali; d’altra parte, stimare il numero delle diverse specie di particelle prodotte in una collisione può essere estremamente complicato. In questa tesi, il numero di barioni Lc prodotti in un campione di dati è stato ottenuto utilizzando delle tecniche di machine learning, in grado di apprendere pattern e imparare a distinguere candidate di segnale da quelle di fondo. Si sono inoltre confrontate tre diverse implementazioni di un algoritmo di Boosted Decision Trees (BDT) e si è utilizzata quella più performante per ricostruire il barione Lc in collisioni pp raccolte dall’esperimento ALICE.
Resumo:
Nonostante lo scetticismo di molti studiosi circa la possibilità di prevedere l'andamento della borsa valori, esistono svariate teorie ipotizzanti la possibilità di utilizzare le informazioni conosciute per predirne i movimenti futuri. L’avvento dell’intelligenza artificiale nella seconda parte dello scorso secolo ha permesso di ottenere risultati rivoluzionari in svariati ambiti, tanto che oggi tale disciplina trova ampio impiego nella nostra vita quotidiana in molteplici forme. In particolare, grazie al machine learning, è stato possibile sviluppare sistemi intelligenti che apprendono grazie ai dati, riuscendo a modellare problemi complessi. Visto il successo di questi sistemi, essi sono stati applicati anche all’arduo compito di predire la borsa valori, dapprima utilizzando i dati storici finanziari della borsa come fonte di conoscenza, e poi, con la messa a punto di tecniche di elaborazione del linguaggio naturale umano (NLP), anche utilizzando dati in linguaggio naturale, come il testo di notizie finanziarie o l’opinione degli investitori. Questo elaborato ha l’obiettivo di fornire una panoramica sull’utilizzo delle tecniche di machine learning nel campo della predizione del mercato azionario, partendo dalle tecniche più elementari per arrivare ai complessi modelli neurali che oggi rappresentano lo stato dell’arte. Vengono inoltre formalizzati il funzionamento e le tecniche che si utilizzano per addestrare e valutare i modelli di machine learning, per poi effettuare un esperimento in cui a partire da dati finanziari e soprattutto testuali si tenterà di predire correttamente la variazione del valore dell’indice di borsa S&P 500 utilizzando un language model basato su una rete neurale.
Resumo:
I giacimenti di cinabro (±stibina) del M.te Amiata costituiscono un distretto minerario di importanza mondiale, con una produzione storica totale che supera le 117 kt di Hg, prodotte tra il 1850 e il 1982. Nell’area del distretto minerario si trova l’omonimo sistema geotermico, con 6 impianti per la produzione di energia elettrica che producono 121MW equivalenti di energia. Lo scopo di questa tesi è di individuare e di verificare correlazioni esistenti tra la peculiare distribuzione N-S delle mineralizzazioni a cinabro, le manifestazioni geotermiche e l’assetto strutturale che caratterizza il distretto cinabrifero e il sistema geotermico. Le correlazioni sono state individuate attraverso l’applicazione di algoritmi Machine Learning (ML), utilizzando Scikit-learn, ad un dataset bidimensionale, costruito con applicazioni GIS per contenere tutti i dati geologici-giacimentologici reperiti in letteratura riguardo al distretto amiatino. È stato costruito un modello tridimensionale dell’area di studio basato sulla produzione di quattro solidi che raggruppano le formazioni geologiche presenti nell’area sulla base delle loro caratteristiche geoidrologiche. Sulla base dei risultati ottenuti si può affermare che le tecniche di ML si sono dimostrate utili nell’identificare correlazioni tra i diversi fattori geologico-strutturali che caratterizzano il sistema geotermico del M.te Amiata; la peculiare distribuzione spaziale N-S dei giacimenti del distretto dipende dalla combinazione di un sistema di faglie e di pieghe; i modelli di regressione basati su alberi decisionali (CatBoost e Random Forest) sono complessivamente più performanti e geologicamente significativi. Questo lavoro suggerisce che il ML rappresenta uno strumento in grado di suggerire nuove e poco sperimentate relazioni tra elementi geologici-giacimentologici di un’area complessa come un sistema geotermico ed è in grado di guidare eventuali fasi successive di studi geologici complessi.
Resumo:
La possibilità di avere accesso alle piattaforme streaming consente all’utente di avere a disposizione un vasto catalogo pieno di contenuti multimediali provenienti da ogni parte del mondo. I prodotti audiovisivi, di cui cresce costantemente il numero di consumatori, sono diventati uno dei mezzi principali della globalizzazione e dello scambio tra i popoli: un film o una serie televisiva sono portatori di elementi originari e tipici della cultura del paese che li produce. In questo contesto, risulta evidente l’importanza della traduzione audiovisiva: il compito dei traduttori è tentare di facilitare il contatto tra le culture e la comprensione degli elementi che le caratterizzano, nel passaggio da una lingua a un’altra. Tuttavia, a causa dei limiti derivanti dalla natura audiovisiva di questi testi, non è sempre possibile ottenere un risultato che rispetti il testo di partenza e che allo stesso tempo sia comprensibile allo spettatore. Per questi motivi, i traduttori si trovano spesso costretti a valutare, a seconda della vicinanza tra le due culture, se mantenere, eliminare o gestire con strategie adatte i termini culturospecifici. Dopo aver contestualizzato brevemente le origini e le caratteristiche della traduzione audiovisiva, l’elaborato in oggetto si propone di descrivere gli adattamenti in italiano e in spagnolo di alcune espressioni, collocate in uno specifico contesto culturale, della serie tv statunitense The Marvelous Mrs. Maisel (Amy Sherman-Palladino, 2017), con l’obiettivo di identificare le tecniche di traduzione e il principale approccio, source-oriented o target-oriented, adottato.
Resumo:
Negli ultimi anni, a causa della crescente tendenza verso i Big Data, l’apprendimento automatico è diventato un approccio di previsione fondamentale perché può prevedere i prezzi delle case in modo accurato in base agli attributi delle abitazioni. In questo elaborato, verranno messe in pratica alcune tecniche di machine learning con l’obiettivo di effettuare previsioni sui prezzi delle abitazioni. Ad esempio, si può pensare all’acquisto di una nuova casa, saranno tanti i fattori di cui si dovrà preoccuparsi, la posizione, i metri quadrati, l’inquinamento dell’aria, il numero di stanze, il numero dei bagni e così via. Tutti questi fattori possono influire in modo più o meno pesante sul prezzo di quell’abitazione. E’ proprio in casi come questi che può essere applicata l’intelligenza artificiale, nello specifico il machine learning, per riuscire a trovare un modello che approssimi nel miglior modo un prezzo, data una serie di caratteristiche. In questa tesi verrà dimostrato come è possibile utilizzare l’apprendimento automatico per effettuare delle stime il più preciso possibile dei prezzi delle case. La tesi è divisa in 5 capitoli, nel primo capitolo verranno introdotti i concetti di base su cui si basa l’elaborato e alcune spiegazioni dei singoli modelli. Nel secondo capitolo, invece, viene trattato l’ambiente di lavoro utilizzato, il linguaggio e le relative librerie utilizzate. Il terzo capitolo contiene un’analisi esplorativa sul dataset utilizzato e vengono effettuate delle operazioni per preparare i dati agli algoritmi che verranno applicati in seguito. Nel capitolo 4 vengono creati i diversi modelli ed effettuate le previsioni sui prezzi mentre nel capitolo 5 vengono analizzati i risultati ottenuti e riportate le conclusioni.
Resumo:
La tesi sviluppa l'analisi del rapporto tra Storytelling e Inclusivity. In particolare vengono analizzati i contesti di produzione, le tecniche di narrazione e i contenuti veicolati nei due case studies selezionati: This Is Us e The Marvelous Mrs Maisel. Viene elaborata un'analisi delle caratteristiche principali della narrazione televisiva e come essa stessa sia elemento fondante della spettacolarizzazione. In particolare, verrà studiato il format dell’episodio di sessanta minuti e come esso sia strutturato diversamente a seconda del contesto di produzione (Network-Nbc e Ott-Amazon Prime Video). Si analizza inoltre come i personaggi principali delle due serie televisive in analisi, Randall Peason per This Is Us e Midge Maisel in The Marvelous Mrs Maisel, siano il motore della nascita ed evoluzione delle trame, intrecci narrativi e tematiche sociali affrontate lungo tutte le stagioni. Vengono esplorate nello specifico le tecniche di narrazione impiegate. Si traccerà un’analisi a partire dai pilot, episodi chiave delle serie televisive, determinanti nel tracciare le regole stesse della serie e le tematiche portanti. Si osserva in che modo, in due contesti molto diversi, i rispettivi showrunner delle serie, abbiano potuto godere di una relativa libertà narrativa nella creazione dei personaggi e dei mondi finzionali. Si prendono poi in esame singolarmente le tematiche di inclusivity e representation e il rapporto con lo storytelling. Per This Is Us verrà principalmente preso in analisi il filone narrativo della racial identity di Randall Pearson, come essa si evolve nel corso delle stagioni e il rapporto tra essa e il contesto contemporaneo con il movimento BlackLivesMatter. Nel caso di The Marvelous Mrs Maisel si analizzerà il processo di decostruzione e ricostruzione del personaggio di una casalinga, moglie e madre Anni Cinquanta in una comica nel mondo stand-up prettamente maschile.
Resumo:
Il Digita Service Act (DSA) è una delle due parti di una proposta di legge che si prefigge come obiettivo quello di modernizzare e rendere più efficace la Direttiva sul commercio elettronico. I sevizi online non sempre sono usati in modo consono: basti pensare alle tecniche di “nudging” (il pilotare le scelte di un utente inconsciamente) o la numerosa presenza di contenuti illegali e disinformativi presenti sulle piattaforme di social media. La proposta di legge, avanzata dalla Commissione europea, si pone come obiettivo la risoluzione di queste problematiche, proponendo una serie di obblighi e restrizioni per evitare che l’utenza online subisca un’esperienza negativa. Allo scopo di capire quali siano i pensieri degli stakeholders riguardo la proposta del DSA, è stata condotta un’analisi statistica su un dataset di 110 file, ognuno dei quali rappresenta un feedback di uno stakeholder, tramite gli algoritmi Wordfish ed MCA.
Resumo:
Il testo verte sulla traduzione audiovisiva e le tecniche di doppiaggio e sottotitolaggio. In particolare, si parla delle strategie di doppiaggio utilizzate per tradurre i riferimenti specifici alla cultura ebraica: foreignization e domestication. Come esempio di foreignization vengono presentati alcuni episodi della sitcom americana The Nanny (La Tata), mentre a supporto della domestication vengono analizzati alcuni episodi della serie TV di Amazon prime Video The Marvelous Mrs. Maisel (La fantastica Signora Maisel).
Resumo:
La tomografia ad impedenza elettrica è un metodo di imaging relativamente nuovo che ha suscitato interesse in un ampia gamma di discipline, la sua portabilità, sicurezza e basso costo suggeriscono che potrebbe risolvere diversi problemi clinici. Matematicamente il problema dell'EIT può essere suddiviso in un problema in avanti e uno inverso. Il problema forward, si basa su un'equazione differenziale parziale ellittica, e definisce l'insieme delle tensioni misurate a partire da una distribuzione nota di conducibilità. Il problema inverso è modellato come un problema dei minimi quadrati non lineare, in cui si cerca di ridurre al minimo la differenza tra le tensioni misurate e quelle generate dalla conducibilità ricostruita. Il problema inverso è mal posto e porta ad una soluzione che non dipende con continuità dai dati e quindi le tecniche di ricostruzione richiedono l'introduzione di un termine di regolarizzazione. L'elaborato si concentra sulle strategie algoritmiche per il problema inverso e sulla realizzazione di un'interfaccia grafica in grado di settare i parametri e confrontare velocemente i metodi proposti. Il progetto nella sua visione più ampia vorrebbe utilizzare le strategie algoritmiche proposte per dati ottenuti dal sistema prodotto dall'Università di Bologna nel laboratorio di Ingegneria Cellulare e Molecolare (ICM) di Cesena. I risultati dei test consentono di delineare quali siano gli strumenti migliori per poter arrivare ad una corretta ricostruzione dell'immagine nonché suggerire possibili miglioramenti della configurazione hardware al fine arrivare a risultati sperimentali completi.
Resumo:
Negli ultimi anni, la ricerca scientifica nell’ambito delle neuroscienze cognitive ha sempre più focalizzato il suo interesse nei confronti dei ritmi cerebrali, ovvero oscillazioni neurali registrabili attraverso tecniche di elettrocenfalografia. In questo lavoro si è investigato il ruolo del ritmo alpha (7-12 Hz) e, in seconda misura, del ritmo gamma (> 30 Hz) rispetto all’attenzione spaziale selettiva. In particolare, partendo da modelli di massa neurale esistenti, si è riusciti a sviluppare un nuovo modello che riesce a simulare un compito di attenzione spaziale sulla base dell’inibition timing hypothesis, che assegna alle onde alpha un ruolo essenziale al fine di trascurare gli stimoli non rilevanti rispetto al compito da svolgere. Successivamente, è stato indagato l’effetto sul modello di alcune degenerazioni neurali tipiche di una delle patologie maggiormente invalidanti, la schizofrenia. Nello specifico, sulla base di evidenze sperimentali che riportano un calo della potenza delle onde gamma nei soggetti schizofrenici a causa della degenerazione degli interneuroni inibitori con dinamica sinaptica veloce, si è riusciti a simulare la progressiva alterazione neurale indotta dalla schizofrenia in termini di incapacità di inibire gli stimoli interferenti.
Resumo:
Le lesioni del sistema nervoso periferico, causate da eventi traumatici o da patologie degenerative, costituiscono un danno che può portare alla perdita di specifiche funzionalità motorie o sensoriali. In questi casi, la terapia chirurgica è necessaria per riparare la perdita di continuità assonale. Il gold standard operatorio attuale è costituito dal trapianto nella sede lesionata di un nervo da donatore o dallo stesso soggetto affetto dal danno. Recentemente, un approccio basato su tecniche di ingegneria dei tessuti propone l’impianto di biomateriali modellati come condotti che favoriscano la rigenerazione assonale. Ne è un esempio chiaro un recente lavoro di ricerca, nel quale Cheng et al. propongono una strategia basata sull’impiego di scaffold piezoelettrici prodotti attraverso una tecnica di "casting annealing displacement " che utilizza Polivinilidenfluoruro (PVDF) e Policaprolattone (PCL). Confrontando in vitro scaffold in PCL, in PVDF e PCL/PVDF, in particolare analizzandone le proprietà piezoelettriche e quelle meccaniche, si rilevano i vantaggi della copolimerizzazione. Questi risultati di interesse vengono inoltre confermati dai risultati funzionali ottenuti con l’impianto in vivo in topi con una lesione di 15 mm al nervo sciatico.
Resumo:
L'inquinamento è un pensiero costante nel ventunesimo secolo. Ogni anno, i ricercatori cercano di trovare nuove metodologie e tecnologie per controllarlo e ridurlo. Per questo motivo l’Università di Bologna ha avviato svariati progetti per contrastare le problematiche ambientali. Una delle iniziative è AlmaBike. Sono biciclette che vengono assegnate nella forma di comodato gratuito al personale universitario e agli studenti. Nell'ultimo periodo, 50 AlmaBike sono state dotate di un pacchetto sensori in grado di rilevare posizione GPS, la qualità dell’aria, il rumore e alcuni parametri ambientali. Gli obiettivi perseguiti sono: sperimentare un sistema che permetta la misurazione di dati in merito alla qualità ambientale del comune di Bologna e misurare la rilevanza della consapevolezza della qualità dell’aria nella scelta di percorsi da parte di un utente, ad esempio casa-lavoro. L’obiettivo di questa tesi è quello di creare un applicativo che permetta la fruizione dei dati raccolti dai vari sensori attraverso l’uso di tecniche di Data Visualization. I dati vengono elaborati e organizzati con lo scopo di permetterne la comprensione anche ad utenti inesperti. La tesi è suddivisa in tre capitoli: nel primo capitolo sono stati approfonditi i concetti inerenti alla sostenibilità riprendendo quanto detto a proposito degli obiettivi dell'Agenda 2030, facendo anche una breve introduzione sul concetto di IoT e sensori; nel secondo capitolo vengono presentate le tecnologie utilizzate per la realizzazione dell’applicativo tra cui: Docker, MySQL, Angular, Typescript, Golang; nel terzo capitolo viene mostrata nel dettaglio l'applicazione creata: dalle scelte progettuali, fino ad arrivare al risultato finale.
Resumo:
La presente sperimentazione ha avuto come obiettivo la formulazione di oli aromatizzati, ottenuti mediante la tecnica di co-frangitura delle olive con arancia, sottoprodotti dell’arancia, melagrana e pepe nero. In questo lavoro di tesi viene affrontata la definizione di olio aromatizzato, cioè un olio d’oliva arricchito con uno o più composti aromatici, come oli essenziali, spezie, erbe aromatiche o frutti. Inizialmente vengono esposte le principali tecniche di aromatizzazione. Successivamente vengono trattati i principali parametri di qualità per la classificazione merceologica degli oli, i composti volatili e i composti fenolici che caratterizzano questi prodotti, ed infine viene descritta la valutazione sensoriale degli oli d’oliva. I campioni di olio prodotti sono stati sottoposti ad analisi per la valutazione dello stato idrolitico, mediante determinazione titrimetrica dell’acidità libera e del contenuto di composti ad attività riducente tramite determinazione spettrofotometrica con reattivo di Folin-Ciocalteu. Infine, sono stati studiati i composti volatili degli oli aromatizzati prodotti, identificando e quantificando i principali attributi sensoriali mediante analisi descrittiva effettuata da un gruppo di assaggiatori addestrati. Dalle analisi eseguite sui campioni si è potuto riscontrare come gli oli prodotti non abbiano problemi di degradazione idrolitica, possiedano un contenuto medio/alto di composti fenolici e siano caratterizzati dalla presenza di attributi secondari positivi.