953 resultados para Elaborazione delle immagini, UAV, traffico aereo, opencv
Resumo:
La ricerca biomedica è arrivata attualmente a un bivio che vede contrapposte sperimentazione in vitro e in vivo. Per ovviare a questo problema è nata la sperimentazione su biochip che, attraverso l'impiego di apparecchiature dedicate, permette di ottenere misure su campioni che ripropongano le condizioni fisiologiche dei tessuti umani in vivo superando il problema della sperimentazione animale e quello delle misure in vitro, che non rispecchiano le condizioni reali delle cellule in esame. Il perfezionamento dell'apparecchio in questione richiede la comparazione delle condizioni create nel biochip con quelle riscontrate nei tessuti cellulari di pazienti umani. Il fine della comparazione è quello di riuscire ad eguagliare i due sistemi per poter sfruttare il dispositivo come un fantoccio su cui verificare gli effetti di farmaci in fase sperimentale e misurare grandezze con un grado di precisione molto più alto rispetto ai metodi messi in opera fino a ora. Questo lavoro di tesi propone uno studio preliminare sulla fattibilità di misure di concentrazioni di ossigeno e glucosio attraverso i radiofarmaci 64Cu-ATSM e 18F-FDG impiegati su pazienti sottoposti a PET-CT. Nello specifico, dopo aver illustrato i processi cellulari che coinvolgono il glucosio e l'ossigeno all'interno dei tessuti umani, si passa a descrivere le metodologie di misura impiegate, nell'ambito dell'imaging diagnostico, e le caratteristiche che motivano la scelta dei radiofarmaci utilizzati come mezzo di contrasto. Successivamente viene considerato un modello compartimentale a due tessuti per descrivere la cinetica dei radiofarmaci e per ottenere una stima delle concentrazioni da rapportare alle grandezze rilevate con la PET. Infine sono tracciati dei profili sulle slice dei volumi PET elaborati che diano dei valori di concentrazione delle molecole studiate.
Resumo:
Lo scopo di questo lavoro di tesi è stato quello di indagare come differenti angoli all’articolazione di caviglia possono influenzare l’architettura del muscolo Tibiale Anteriore, architettura che sua volta può influenzare la lettura degli elettromiogrammi superficiali. Questo è stato fatto attraverso l’utilizzo combinato di sistemi ecografici e stereofotogrammetrici, che nel loro complesso permettono la ricostruzione del volume della struttura di interesse. Dalle immagini ecografiche 3D è stato possibile valutare le modifiche dell’angolo di pennazione del muscolo, che ha mostrato differenze significative tra due condizioni di osservazione, ovvero passando dalla condizione con caviglia in posizione neutra a dorsiflessa e passando dalla posizione dorsiflessa a quella plantarflessa. Dalla ricostruzione del volume è stato possibile stimare le variazioni di spessore e larghezza del muscolo. Da queste stime sono state riscontrate differenze significative passando dalla condizione con caviglia in posizione neutra a dorsiflessa e passando dalla posizione dorsiflessa a quella plantarflessa, principalmente nella porzione più mediale del muscolo.
Resumo:
Questa ricerca mira ad indagare le immagini possibili di una città, nello specifico Rimini, sperimentando un sistema insediativo in cui l'elemento verde e le relazioni sociali e funzionali sono stati elementi fondamentali nella progettazione. L'area di intervento è la stazione di Rimini, per cui si è proposta una riqualificazione urbana capace di innescare flussi e capacità attrattiva, grazie alla scelta di inserire edifici di carattere pubblico, quali un museo, l'accademia delle belle arti, servizi agli universitari, un hotel e del terziario. Le residenze sono immerse nel parco, per godere di un rapporto privilegiato con l'elemento natura. Il lavoro è partito da un'analisi delle caratteristiche di Rimini, la sua forte vocazione turistica e le sue componenti culturali, cercando di rappresentare al meglio gli aspetti e i valori della città.
Resumo:
L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).
Resumo:
La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.
Resumo:
La tecnologia della diffusion tensor imaging (DTI) è una tecnica non invasiva, che permette di effettuare una caratterizzazione in vivo di diversi tessuti, è una tecnica consolidata in ambito neurologico e rappresenta una metodica ancora da esplorare ma molto promettente in ambito renale. Questo lavoro di tesi si concentra in primo luogo sulla differenziazione di diverse strutture renali quali, la corteccia e la medulla del rene sano, le cisti del rene affetto dalla malattia policistica autosomica dominante e i carcinomi. La seconda parte del lavoro si concentra sui reni policistici, in quanto è una delle malattie genetiche più comuni e la principale causa di insufficienza renale e non è, ad oggi, stata adeguatamente affrontata in questo genere di studi. Il secondo obiettivo è, quindi, di valutare se la tecnica dell’imaging di diffusione potrebbe essere utile per fornire informazioni sullo stato della malattia e sul grado si avanzamento di essa. Sono stati implementati in Matlab gli algoritmi per la costruzione del tensore di diffusione a partire dalle immagini DWI e per la selezione delle ROI sulle varie regioni di interesse. I risultati ottenuti per l’analisi dei reni policistici dimostrano che per gli intervalli temporali considerati non è possibile correlare il valore di diffusività media del parenchima e lo stadio di avanzamento della malattia, stabilito dai valori di eGFR. Per quanto riguarda i risultati ottenuti dalla differenziazione delle diverse strutture renali la tecnica della diffusion imaging risulta essere potenzialmente in grado di differenziare i diversi tessuti renali e di valutare separatamente la funzionalità dei reni.
Resumo:
La tesi è stata incentrata sul gioco «Indovina chi?» per l’identificazione da parte del robot Nao di un personaggio tramite la sua descrizione. In particolare la descrizione avviene tramite domande e risposte L’obiettivo della tesi è la progettazione di un sistema in grado di capire ed elaborare dei dati comunicati usando un sottoinsieme del linguaggio naturale, estrapolarne le informazioni chiave e ottenere un riscontro con informazioni date in precedenza. Si è quindi programmato il robot Nao in modo che sia in grado di giocare una partita di «Indovina chi?» contro un umano comunicando tramite il linguaggio naturale. Sono state implementate regole di estrazione e categorizzazione per la comprensione del testo utilizzando Cogito, una tecnologia brevettata dall'azienda Expert System. In questo modo il robot è in grado di capire le risposte e rispondere alle domande formulate dall'umano mediante il linguaggio naturale. Per il riconoscimento vocale è stata utilizzata l'API di Google e PyAudio per l'utilizzo del microfono. Il programma è stato implementato in Python e i dati dei personaggi sono memorizzati in un database che viene interrogato e modificato dal robot. L'algoritmo del gioco si basa su calcoli probabilistici di vittoria del robot e sulla scelta delle domande da proporre in base alle risposte precedentemente ricevute dall'umano. Le regole semantiche realizzate danno la possibilità al giocatore di formulare frasi utilizzando il linguaggio naturale, inoltre il robot è in grado di distinguere le informazioni che riguardano il personaggio da indovinare senza farsi ingannare. La percentuale di vittoria del robot ottenuta giocando 20 partite è stata del 50%. Il data base è stato sviluppato in modo da poter realizzare un identikit completo di una persona, oltre a quello dei personaggi del gioco. È quindi possibile ampliare il progetto per altri scopi, oltre a quello del gioco, nel campo dell'identificazione.
Resumo:
L'attività di tesi è stata svolta presso la divisione System Ceramics della società System Group S.p.A. di Fiorano Modenese (MO) che si occupa dello sviluppo di soluzioni per l'industria ceramica, tra cui la decorazione delle piastrelle. Tipicamente nelle industrie ceramiche la movimentazione dei pezzi è effettuata tramite nastro trasportatore e durante il trasporto i pezzi possono subire leggeri movimenti. Se il pezzo non viene allineato alla stampante prima della fase di decorazione la stampa risulta disallineata e vi possono essere alcune zone non stampate lungo i bordi del pezzo. Perciò prima di procedere con la decorazione è fondamentale correggere il disallineamento. La soluzione più comune è installare delle guide all'ingresso del sistema di decorazione. Oltre a non consentire un’alta precisione, questa soluzione si dimostra inadatta nel caso la decorazione venga applicata in fasi successive da stampanti diverse. Il reparto di ricerca e sviluppo di System Ceramics ha quindi ideato una soluzione diversa e innovativa seguendo l'approccio inverso: allineare la grafica via software a ogni pezzo in base alla sua disposizione, invece che intervenire fisicamente modificandone la posizione. Il nuovo processo di stampa basato sull'allineamento software della grafica consiste nel ricavare inizialmente la disposizione di ogni piastrella utilizzando un sistema di visione artificiale posizionato sul nastro prima della stampante. Successivamente la grafica viene elaborata in base alla disposizione del pezzo ed applicata una volta che il pezzo arriva presso la zona di stampa. L'attività di tesi si è focalizzata sulla fase di rotazione della grafica ed è consistita nello studio e nell’ottimizzazione del prototipo di applicazione esistente al fine di ridurne i tempi di esecuzione. Il prototipo infatti, sebbene funzionante, ha un tempo di esecuzione così elevato da risultare incompatibile con la velocità di produzione adottata dalle industrie ceramiche.
Resumo:
Il framework in oggetto, è un ambiente ideato con lo scopo di applicare tecniche di Machine Learning (in particolare le Random Forest) alle funzionalità dell'algoritmo di stereo matching SGM (Semi Global Matching), al fine di incrementarne l'accuratezza in versione standard. Scopo della presente tesi è quello di modificare alcune impostazioni di tale framework rendendolo un ambiente che meglio si adatti alla direzionalità delle scanline (introducendo finestre di supporto rettangolari e ortogonali e il training di foreste separate in base alla singola scanline) e ampliarne le funzionalità tramite l'aggiunta di alcune nuove feature, quali la distanza dal più vicino edge direzionale e la distintività calcolate sulle immagini Left della stereo pair e gli edge direzionali sulle mappe di disparità. Il fine ultimo sarà quello di eseguire svariati test sui dataset Middlebury 2014 e KITTI e raccogliere dati che descrivano l'andamento in positivo o negativo delle modifiche effettuate.
Resumo:
Il traffico merci e fondamentale per lo sviluppo economico delle societa poiche lo spostamento dei prodotti consente alle aziende di poter fare affidamento su mercati piu ampi permettendo ai consumatori di scegliere fra una piu vasta gamma di prodotti. In questo contesto grande importanza ha assunto l'intermodalita ed in particolare il trasporto combinato strada rotaia; l'interporto risulta essere la struttura piu adatta a promuovere questo sistema di trasporto merci. Questo lavoro di tesi pone l'attenzione sulla gestione dei processi che avvengono all'interno del terminal intermodale dell'interporto Quadrante Europa di Verona. L'elaborato, dopo una descrizione delle caratteristiche operative e funzionali del trasporto intermodale, schematizza le diverse fasi che si susseguono all'interno del terminal, con particolare riferimento alla gestione dei semirimorchi, ai loro tempi di giacenza e alla loro allocazione nelle diverse aree di sosta.
Resumo:
I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.
Resumo:
In questo lavoro di tesi sono state impiegate le librerie grafiche OpenGL ES 2 per eseguire calcoli paralleli sulla GPU del Raspberry Pi. Sono stati affrontati e discussi concetti riguanrdati il calcolo parallelo, stream processing, GPGPU e le metriche di valutazione di algoritmi paralleli. Sono inoltre descritte le potenzialita e le limitazioni derivanti dall'impiego di OpenGL per implementare algoritmi paralleli. In particolare si e fatto riferimento all'algoritmo Seam Carving per il restringimento di immagini, realizzando e valutando una implementazione parallela di questo sul Raspberry Pi.
Resumo:
Obiettivo del presente lavoro consiste nell’elaborazione di curve di isodose relative ad alcuni apparecchi radiologici utilizzati in ambito medico partendo da misure effettuate sul campo in condizioni geometriche predefinite. Tali curve hanno consentito una mappatura dei campi di radiazione nei locali di impiego delle apparecchiature stesse, utili nelle valutazioni di radioprotezione degli operatori. In questo modo viene fornito al clinico uno strumento di consultazione per ottimizzare le proprie procedure da un punto di vista dell’esposizione al rischio delle radiazioni ionizzanti.
Resumo:
Obiettivo di questo elaborato è quello di provvedere alla elaborazione dei dati geometrici necessari alla modellazione dei condotti di aspirazione e scarico di un motore 4 cilindri turbo benzina ad iniezione diretta (GDI) disponibile a banco prove. I dati sperimentali raccolti sono stati elaborati e sintetizzati, con lo scopo di fare avvicinare il più possibile le caratteristiche del modello a quelle del sistema a banco (cercando dunque di rendere il modello il più veritiero possibile). In primo luogo, saranno descritte le principali caratteristiche dei motori a combustione interna, con particolare enfasi rivolta ai componenti ed ai processi che caratterizzano i motori turbo GDI. In un secondo momento, sarà descritto come si è proceduto nella raccolta dei dati necessari alla modellazione e nell’elaborazione degli stessi. Il software cui l’elaborazione dei dati necessari alla modellazione è stata rivolta è GT-Suite, prodotto da Gamma Technologies e largamente utilizzato dalla maggior parte delle aziende del settore automotive.
Resumo:
RIASSUNTO Premesse: Nonostante l’asma sia stata considerata per anni come un’unica malattia, studi recenti ne dimostrano l’eterogeneità. L’intento di caratterizzare tale eterogeneità ha condotto a studiare molteplici sottogruppi ovvero “fenotipi”. Nell’asma comune questo approccio è stato utilizzato da svariati anni, meno invece nell’asma occupazionale. Poco è noto anche riguardo alle caratteristiche della risposta infiammatoria nel corso dei test di provocazione bronchiale specifici (SIC) con isocianati valutata con metodiche non invasive; in particolare l’origine dell’incremento di ossido nitrico misurato ad un flusso espiratorio di 50 ml/s (FeNO50) precedentemente riscontrato, se sia alveolare o bronchiale, i livelli di dimetilarginina asimmetrica (ADMA) e la temperatura dell’aria espirata (EBT). Scopi dello studio: 1) verificare se anche per l’asma occupazionale (OA) da isocianati siano individuabili dei fenotipi o se essa ne rappresenti uno unico 2) studiare l’infiammazione delle vie aeree sperimentalmente indotta tramite: la misurazione dell’NO frazionato mediante i parametri “flow-independent” che stimano sia la regione alveolare, ovvero la concentrazione di NO alveolare (CaNO), che la regione bronchiale ovvero il flusso di NO a livello bronchiale (JawNO), la concentrazione di NO a livello della parete bronchiale (CawNO) e la diffusione di NO all’interfaccia lume-parete bronchiale (DawNO); la misurazione dell’ADMA nel condensato dell’aria esalata (EBC); la misurazione dell’EBT. Materiali e metodi: Per lo studio sulla fenotipizzazione dell’asma da isocianati sono stati esaminati pazienti risultati positivi al test di provocazione bronchiale specifico con isocianati nel periodo compreso tra il 1988 e il 2013. Mediante l’utilizzo di un approccio multivariato dato dall’analisi gerarchica dei cluster e di un ampio pool di variabili appropriate abbiamo studiato se i soggetti affetti da asma professionale da isocianati rappresentino uno o più cluster. Mediante un altro approccio multivariato, dato dall’analisi delle k-medie, si sono individuate le caratteristiche che differenziano in maniera significativa i soggetti distribuiti nei diversi cluster. Per il secondo scopo dello studio dal 2012 al 2015 abbiamo reclutato soggetti afferiti presso il nostro centro per sospetta asma professionale. In questi pazienti in corso di sham-test e di SIC con isocianati fino a 24 post test sono stati monitorati e misurati: la funzionalità respiratoria incluso il test di provocazione bronchiale aspecifico con metacolina, l’NO frazionato, l’ADMA nell’EBC e l’EBT. Risultati: L’utilizzo dell’analisi gerarchica dei cluster ci ha portati a stabilire che i 187 pazienti studiati non costituiscono un unico gruppo omogeneo ma possono essere suddivisi in 3 cluster. L’applicazione poi del metodo multivariato delle k-medie, su tre cluster, ci ha consentito di individuare due cluster di pazienti sensibilizzati a TDI con prevalente risposta late al SIC e un cluster di pazienti sensibilizzati a MDI con prevalente risposta early al SIC. I soggetti appartenenti ai due cluster dei TDI differiscono fra di loro in maniera significativa per l’età alla diagnosi e all’esordio dei sintomi respiratori, la distribuzione per sesso, il BMI, la distribuzione in quanto abitudine al fumo, l’IT, il FEV1 basale % del predetto, l’età di inizio esposizione, gli anni di latenza e la durata dell’esposizione. Per quanto riguarda invece lo studio del profilo infiammatorio delle vie aeree abbiamo reclutato 25 pazienti, 18 maschi e 7 femmine. Nel gruppo dei SIC-positivi FeNO50 è aumentato significativamente a 24 ore dal test (mediana 111.8 ppb [IQR, 167.5]; p<0.05) se confrontato con lo sham (58.6 ppb [74.7]). I livelli di JawNO hanno manifestato il medesimo time-course con un incremento significativo post 24 ore dall’esposizione (6.6 nL/s [81]; p <0.05) se confrontato con lo sham (3.3 nL/s [3.7]). Non sono state riscontrate significative variazioni negli altri parametri. Non sono state riscontrate significative variazioni dell’ADMA nell’EBC e dell’EBT in entrambi i gruppi. Conclusioni: L’asma da isocianati è una patologia eterogenea come l’asma comune. Gli elementi principali che differenziano i cluster di asma professionale da isocianati sono l’agente sensibilizzante e il tipo di risposta al SIC (cluster 3 vs cluster 1 e 2). Anche nell’ambito dell’asma indotta dallo stesso agente (TDI) si sono evidenziati due cluster in cui quello con peggiore funzionalità respiratoria è rappresentato da soggetti più anziani alla diagnosi e con maggiore durata dell’esposizione. I motivi per cui l’asma occupazionale risulta essere eterogenea possono essere un differente meccanismo d’azione dei monomeri o una diversa suscettibilità degli individui appartenenti ai diversi cluster sia in termini di insorgenza della malattia sia in termini di evoluzione della stessa. L’assetto infiammatorio delle vie aeree nel corso del SIC non si caratterizza nei soggetti sensibilizzati ad isocianati né con un incremento dell’ADMA né con un incremento dell’EBT. Si riscontra invece un aumento di FeNO50 dovuto esclusivamente ad un aumentato flusso di NO dalla parete bronchiale al lume. Abbiamo perciò dimostrato che la misurazione del FeNO50 nel corso del SIC può fornire informazioni aggiuntive al monitoraggio funzionale spirometrico, anche perché la broncoostruzione e la risposta infiammatoria delle vie aeree si sono rivelate dissociate.