893 resultados para indirizzo :: 860 :: Curriculum: Costruzioni per il territorio
Resumo:
Nell’ultimo periodo, si è sviluppato un forte interesse nella produzione di materiali a base proteica per il settore biomedicale e cosmetico, in particolare per il rilascio controllato di farmaci. In questo studio sono stati sviluppati, tramite elettrofilatura, dei materiali nanocompositi, costituiti da una matrice di cheratina, ottenuta da lana, e PLA caricata con grafene ossido e con Rodamina-B, un indicatore particolarmente usato in chimica analitica per valutare il rilascio di determinati sistemi. Tali materiali, caratterizzati morfologicamente e strutturalmente, sono stati testati in vitro come sistemi per il rilascio controllato di farmaci, usando la Rodamina per la maggiore facilità di rilevazione, valutando soprattutto l’influenza del grafene ossido sull’entità del rilascio. I risultati ottenuti hanno evidenziato come l’ossido di grafene influisca in maniera significativa sull’entità del rilascio, rallentando la quantità di Rodamina rilasciata nelle prime 48 ore. Studi per l’applicazione di questi materiali nell’ingegneria tissutale e nella medicina rigenerativa saranno oggetto di studi futuri.
Resumo:
Il CoViD-19, infezione dell’apparato respiratorio causata dal virus SARS-COV-2, può indurre una congestione polmonare acuta caratterizzata da dispnea, bassa saturazione di ossigeno e, spesso, infiltrazioni di liquido nei polmoni. In letteratura sono presenti diversi studi sul monitoraggio della congestione polmonare, seppur di diversa eziologia, per mezzo del segnale di bioimpedenza transtoracica. Questa grandezza quantifica la resistenza opposta dai tessuti al passaggio di una minima corrente alternata che diminuisce in relazione al maggiore contenuto di liquido nel tessuto polmonare patologico. Il monitoraggio remoto dello stato polmonare del paziente CoViD-19 mediante bioimpedenza transtoracica rappresenterebbe una soluzione ottimale in termini di pervasività, semplicità di sistema, sicurezza dal contagio e non invasività. Questo studio, inquadrato in un più ampio progetto regionale, MySIGN, si pone come obiettivo quello di caratterizzare il funzionamento di una scheda prototipale e individuare il setup sperimentale più idoneo per l’acquisizione dei segnali ECG e di bioimpedenza. Per confermare le ipotesi sulla variazione di impedenza è stato scelto come gold standard un sistema commerciale (Edema Guard Monitor) del quale sono state valutate la ripetibilità e sensibilità nell’effettuare misure di impedenza. Vengono perciò riportate le principali soluzioni progettuali per l’acquisizione dei segnali bioimpedenziometrici ed elettrocardiografici, le relative elaborazioni e gli algoritmi che permettono di ricavare stime di frequenza respiratoria, battito cardiaco e intervallo QT. Tali informazioni saranno poi integrate con misure di temperatura ed SpO2 in modo tale da fornire al personale sanitario una panoramica completa dello stato del paziente. La scheda di acquisizione verrà integrata nel dispositivo di telemonitoraggio del progetto MySIGN, il quale sarà impiegato in uno studio di sperimentazione clinica e successivamente andrà incontro all’iter di marcatura CE.
Resumo:
L’obiettivo principale della tesi, è quello di mettere a confronto soluzioni basate su tecnologie diverse e individuare la soluzione migliore che permetta di stabilire se le persone inquadrate in un’immagine indossano correttamente o meno la mascherina protettiva come previsto dalle norme anti-covid. Per raggiungere l’obiettivo verranno confrontate diverse architetture costruite per lo stesso scopo e che si basano sui principi di Machine Learning e Deep Learning, e verranno messe in funzione su insieme di dataset individuati, che sono stati creati per propositi affini.
Resumo:
I crostacei sono da sempre considerati prodotti ittici d'elevato valore economico (FAO 2020) soggetti ad un'alta deperibilità a causa dello sviluppo di colorazioni brune nella zona cefalotoracica ed addominale del carapace (Goncalves et al. 2016). Nell'ottica di una riduzione degli sprechi alimentari e vista la crescente sensibilità dei consumatori verso alimenti clean-lable, questo studio valuta l'effetto dell'acqua attivata al plasma (PAW) nel ritardare la comparsa di melanosi su mazzancolle (P. kerathurus) e gamberi rosa (P. longirostris), confrontandone l'effetto con i più comuni trattamenti (solforosa e 4-esilresorcinolo). La valutazione della melanosi si è svolta per mezzo di un sistema di visione computerizzata (CVS) e successiva analisi delle immagini digitalizzate. Dalle prove sulle mazzancolle è emerso un effetto protettivo dell'acqua attivata al plasma per i primi 5 giorni di conservazione, mentre per i gamberi rosa non si sono ottenute differenze significative (p<0.05) rispetto ai campioni trattati con sola acqua. I migliori risultati nel contenimento della melanosi si sono ottenuti dai campionitrattati con 4-esilresorcionolo, tuttavia si è anche sviluppata una colorazione rossa sul carapace giudicabile, secondo altri studi, come sgradevole (Pilar Montero et al. 2001).
Resumo:
L'image captioning è un task di machine learning che consiste nella generazione di una didascalia, o caption, che descriva le caratteristiche di un'immagine data in input. Questo può essere applicato, ad esempio, per descrivere in dettaglio i prodotti in vendita su un sito di e-commerce, migliorando l'accessibilità del sito web e permettendo un acquisto più consapevole ai clienti con difficoltà visive. La generazione di descrizioni accurate per gli articoli di moda online è importante non solo per migliorare le esperienze di acquisto dei clienti, ma anche per aumentare le vendite online. Oltre alla necessità di presentare correttamente gli attributi degli articoli, infatti, descrivere i propri prodotti con il giusto linguaggio può contribuire a catturare l'attenzione dei clienti. In questa tesi, ci poniamo l'obiettivo di sviluppare un sistema in grado di generare una caption che descriva in modo dettagliato l'immagine di un prodotto dell'industria della moda dato in input, sia esso un capo di vestiario o un qualche tipo di accessorio. A questo proposito, negli ultimi anni molti studi hanno proposto soluzioni basate su reti convoluzionali e LSTM. In questo progetto proponiamo invece un'architettura encoder-decoder, che utilizza il modello Vision Transformer per la codifica delle immagini e GPT-2 per la generazione dei testi. Studiamo inoltre come tecniche di deep metric learning applicate in end-to-end durante l'addestramento influenzino le metriche e la qualità delle caption generate dal nostro modello.
Resumo:
Il presente lavoro di Tesi ha voluto fornire una panoramica sui dispositivi a rilascio controllato presenti nella letteratura scientifica, e dei materiali, in particolare poliesteri alifatici, principalmente impiegati a tale scopo. Particolare attenzione è stata dedicata anche alle tipologie di somministrazione e alle patologie che attualmente possono essere curate con tali dispositivi al fine di effettuare un rilascio di principio attivo in maniera mirata, controllata, e ottimizzata in relazione alla specifica terapia, al fine di migliorare quanto più possibile la compliance del paziente. In ultima istanza, sono stati riportati alcuni casi studio, relativi a sistemi copolimerici e materiali ibridi realizzati dal gruppo di ricerca della Prof.ssa Lotti, relatrice del presente elaborato, che da anni studia e realizza materiali polimerici innovativi per applicazioni biomedicali, quali ingegneria tissutale e rilascio controllato di farmaci.
Resumo:
L'attività di tesi svolta presso l'azienda VRM spa è stata focalizzata sullo studio e sull’implementazione di un sistema di controllo elettronico per le sospensioni di un motociclo. Con questo obiettivo, sono state affrontate le fasi di analisi del sistema sospensioni della moto Benelli 752S, della modellazione multibody del veicolo e della modellazione matematica delle strategie Anti-Dive e Anti-Squat. Tali strategie di controllo sono volte a limitare rispettivamente la velocità di affondamento della forcella, in fase di frenata, e lo squat della moto sulla ruota posteriore, in accelerazione. Le considerazioni teoriche, alla base di questo studio, sono state supportate da una serie di simulazioni effettuate mediante il software Simulink di Matlab, che ha consentito di rappresentare il comportamento dinamico del sistema. A completamento della ricerca sopra citata, sono state condotte attività sperimentali volte a riprodurre le condizioni in cui le strategie di controllo vengono messe in atto e a validare la risposta ottenuta dal modello Simulink nei medesimi scenari operativi. Queste verifiche hanno dimostrato l'adeguatezza delle variabili individuate come input del controllo e la corrispondenza tra il comportamento del veicolo nei test su strada e i risultati ottenuti dal modello.
Resumo:
Il diabete mellito è una delle malattie più diffuse al mondo ed i casi accertati aumentano ogni anno. Dai primi metodi di monitoraggio della glicemia attraverso ripetute punture, oggi si punta maggiormente su un monitoraggio continuo dei parametri di interesse. Sebbene le innovazioni tecnologiche legate al controllo del diabete si siano largamente fatte strada negli ultimi anni, spesso la praticità, i costi e la manutenzione di tali dispositivi non sono aspetti ottimali per gli individui che ne devono fare uso. L’obbiettivo tecnologico dei giorni d’oggi è quello di aumentare l’autonomia degli individui nell’utilizzo di dispositivi professionali per il miglioramento del proprio stile di vita, a maggior ragione in ambito medico-biologico. Questo elaborato analizza l’evoluzione dei metodi di rilevazione dei parametri legati alla malattia del diabete, con particolare attenzione sulle recenti proposte di innovazione tecnologica. Inoltre, si ripropone di evidenziare il metodo più efficace tra quelli esaminati: l’utilizzo di bioinchiostri come reagenti sottocutanei. Questa tecnica innovativa si ripromette di diminuire fortemente i costi e gli sprechi legati ai dispositivi monouso. Inoltre, permette una maggiore raccolta di informazioni continuative, attraverso la proposta di un accoppiamento con dispositivi mobili, largamente diffusi ai giorni d’oggi, da poter condividere facilmente e comodamente con il proprio gruppo di medici.
Resumo:
Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.
Resumo:
Lo scopo di questa tesi è analizzare le API disponibili sul Web che forniscono dati meteorologici e in particolare analizzare i servizi che esse offrono. La tesi include la descrizione di confronti già presenti sul Web ed è seguita dalla definizione di una griglia di valutazione con cui sono state analizzate le API meteo e le varie funzionalità che esse offrono. Infine il lavoro si completa con lo sviluppo di un’applicazione mobile realizzata in React Native, in cui è possibile leggere e confrontare in modo interattivo i dati attuali e storici forniti dalle API, inoltre permette di filtrare le API meteo in base alle caratteristiche che si cercano.
Resumo:
TARO (Tons of Articles Ready to Outline) è un progetto che ha come scopo quello di realizzare un sistema per la raccolta, l'analisi e il confronto di articoli di giornali online. Sono state scelte come fonti testate giornalistiche internazionali e i loro canali di pubblicazione, come ad esempio i Feed RSS e le Homepage. Gli articoli vengono quindi analizzati attraverso NER e Sentiment Analysis per poi individuare quali argomenti siano trattati da più testate e quali invece risultino esclusivi di una sola, sfruttando algoritmi di similarità. Il progetto è sviluppato in Python e sono utilizzate diverse librerie, tra cui Scrapy, per la raccolta di articoli, Argos, per la traduzione delle notizie al fine di allinearle linguisticamente, SpaCy, per le analisi semantiche, e Pandas per la visualizzazione dei risultati ottenuti. Uno degli obiettivi è sfruttare questa pipeline al fine di effettuare analisi socio-culturali interessanti utilizzando le informazioni date dagli articoli giornalistici stessi, oltre che osservare le potenzialità delle analisi semantiche fatte su notiziari.
Resumo:
Il seguente elaborato affronta l'implementazione di un algoritmo che affronta un problema di controllo di processo in ambito industriale utilizzando algoritmi di object detection. Infatti, il progetto concordato con il professore Di Stefano si è svolto in collaborazione con l’azienda Pirelli, nell’ambito della produzione di pneumatici. Lo scopo dell'algoritmo implementato è di verificare il preciso orientamento di elementi grafici della copertura, utilizzati dalle case automobilistiche per equipaggiare correttamente le vetture. In particolare, si devono individuare delle scritte sul battistrada della copertura e identificarne la posizione rispetto ad altri elementi fissati su di essa. La tesi affronta questo task in due parti distinte: la prima consiste nel training di algoritmi di deep learning per il riconoscimento degli elementi grafici e del battistrada, la seconda è un decisore che opera a valle del primo sistema utilizzando gli output delle reti allenate.
Resumo:
Il ruolo dell’informatica è diventato chiave del funzionamento del mondo moderno, ormai sempre più in progressiva digitalizzazione di ogni singolo aspetto della vita dell’individuo. Con l’aumentare della complessità e delle dimensioni dei programmi, il rilevamento di errori diventa sempre di più un’attività difficile e che necessita l’impiego di tempo e risorse. Meccanismi di analisi del codice sorgente tradizionali sono esistiti fin dalla nascita dell’informatica stessa e il loro ruolo all’interno della catena produttiva di un team di programmatori non è mai stato cosi fondamentale come lo è tuttora. Questi meccanismi di analisi, però, non sono esenti da problematiche: il tempo di esecuzione su progetti di grandi dimensioni e la percentuale di falsi positivi possono, infatti, diventare un importante problema. Per questi motivi, meccanismi fondati su Machine Learning, e più in particolare Deep Learning, sono stati sviluppati negli ultimi anni. Questo lavoro di tesi si pone l’obbiettivo di esplorare e sviluppare un modello di Deep Learning per il riconoscimento di errori in un qualsiasi file sorgente scritto in linguaggio C e C++.
Resumo:
La tomografia ad impedenza elettrica è un metodo di imaging relativamente nuovo che ha suscitato interesse in un ampia gamma di discipline, la sua portabilità, sicurezza e basso costo suggeriscono che potrebbe risolvere diversi problemi clinici. Matematicamente il problema dell'EIT può essere suddiviso in un problema in avanti e uno inverso. Il problema forward, si basa su un'equazione differenziale parziale ellittica, e definisce l'insieme delle tensioni misurate a partire da una distribuzione nota di conducibilità. Il problema inverso è modellato come un problema dei minimi quadrati non lineare, in cui si cerca di ridurre al minimo la differenza tra le tensioni misurate e quelle generate dalla conducibilità ricostruita. Il problema inverso è mal posto e porta ad una soluzione che non dipende con continuità dai dati e quindi le tecniche di ricostruzione richiedono l'introduzione di un termine di regolarizzazione. L'elaborato si concentra sulle strategie algoritmiche per il problema inverso e sulla realizzazione di un'interfaccia grafica in grado di settare i parametri e confrontare velocemente i metodi proposti. Il progetto nella sua visione più ampia vorrebbe utilizzare le strategie algoritmiche proposte per dati ottenuti dal sistema prodotto dall'Università di Bologna nel laboratorio di Ingegneria Cellulare e Molecolare (ICM) di Cesena. I risultati dei test consentono di delineare quali siano gli strumenti migliori per poter arrivare ad una corretta ricostruzione dell'immagine nonché suggerire possibili miglioramenti della configurazione hardware al fine arrivare a risultati sperimentali completi.
Resumo:
DUNE (Deep Underground Neutrino Experiment) è un esperimento internazionale attualmente in costruzione al laboratorio Fermilab in Illinois, Stati Uniti. Il suo scopo sarà quello di studiare alcuni dei fenomeni e quesiti aperti che riguardano i neutrini: particelle debolmente interagenti facenti parte del Modello Standard. In particolare DUNE intende studiare il fenomeno dell'oscillazione di sapore dei neutrini, osservare neutrini provenienti da supernove e stelle di neutroni per studiarne la formazione e ricercare l'eventuale decadimento dei protoni. L'esperimento sarà formato da due siti sperimentali distanti circa 1300 km tra loro: il Near Detector situato a Fermilab ed il Far Detector, situato al Sanford Underground Research Facility (SURF) in South Dakota. Questa tesi è rivolta in particolare al sistema di fotorivelazione del Far Detector, che utilizza fotomoltiplicatori al silicio (Silicon Photomultipliers, o SiPM). Questi dispositivi dovranno funzionare in condizioni criogeniche in argon liquido, perciò è stata avviata un'intensiva campagna di test volta alla caratterizzazione e validazione dei sensori che saranno montati nell'apparato. La sezione INFN di Bologna è coinvolta in questa campagna e dovrà testare una parte dei SiPM destinati all'impiego in DUNE. A tale scopo è stato realizzato, nei laboratori INFN, un sistema per il test di tali dispositivi in criogenia su larga scala. L'attività di tesi ha previsto la caratterizzazione di diversi SiPM sia a temperatura ambiente sia in criogenia e l'analisi delle distribuzioni statistiche dei parametri di diversi campioni di SiPM.