144 resultados para IDENTIFICACION AUTOMATICA
Resumo:
Il piede è la struttura anatomica multi-articolare che media il contatto dell’apparato muscoloscheletrico con il suolo ed è, quindi, fondamentale per la locomozione e per la maggioranza dei task motori. Per questo, l’analisi cinematica intrarticolare in-vivo del complesso piede-caviglia risulta essere di grande interesse in ambito biomeccanico e in ambito clinico. La quantificazione del moto relativo è, però, complessa a causa del numero di ossa presenti nel piede, ben 26, e alla loro distribuzione. Tali limitazioni possono essere superate ricorrendo a misure in risonanza magnetica dinamica (DMRI). Questo elaborato presenta un primo approccio esplorativo per determinare la cinematica del piede. In particolare l’analisi si è concentrata, per semplicità, sullo studio del retropiede, quindi sul moto relativo tra tibia, talo e calcagno, nel caso di flessione plantare libera, ovvero senza alcun carico applicato. Il complesso piede-caviglia è stato scansionato suddividendo il range di movimento in 13 pose statiche. Da ognuna delle 13 acquisizioni di tipo volumetrico sono state simulate delle scansioni dinamiche, in modo da ottenere una cinematica certa di riferimento, per poter valutare la precisione dell’algoritmo utilizzato. La ricostruzione della cinematica tridimensionale del complesso esaminato si è basata su un algoritmo di registrazione, composto da un primo processo di inizializzazione semiautomatico ed una successiva registrazione 2D/3D automatica basata sull’intensità dei voxel. Di particolare interesse in questa indagine è la ricostruzione dei tre moti relativi: tibia-talo, tibia-calcagno e talo-calcagno. Per valutare la precisione dell’algoritmo nella ricostruzione della cinematica è stato calcolato l’errore medio in valore assoluto tra le coordinate dei modelli nelle pose di riferimento e le coordinate fornite dal codice. I risultati ottenuti sono di notevole interesse visto il carattere esplorativo dello studio.
Resumo:
Associare nomi propri a volti di persona è un compito importante, fondamentale nella quotidianità di tutti i giorni. Nonostante questa operazione avvenga quasi sempre in maniera automatica, essa coinvolge una rete neurale complessa ed articolata. Diversi studi offrono strategie che possono aiutare in questo compito; in particolare, è stato riportato che rafforzare i nomi con stimoli cross-modali, ossia presentando più input sensoriali esterni contemporaneamente, può costituire un vantaggio per il recupero in memoria dei nomi stessi. Lo scopo di questa tesi è stato quello di svolgere un’analisi di sensibilità tramite un modello neuro-computazionale su MatLab di ispirazione biologica. Nello specifico sono stati considerati due macro-network: uno per i volti, l’altro per i nomi propri; quest’ultimo in particolare a sua volta si compone di tre aree uni-sensoriali, ciascuna delle quali corrisponde ad un modo specifico con cui codificare un nome (traccia audio, lip reading, name tag). Questi network sono stati dunque implementati attraverso una configurazione articolata su due strati: si potrebbe infatti pensare alla fase di addestramento, basata su un algoritmo hebbiano, come un primo layer del processo, seguito così da un secondo layer, dato invece dalla fase di utilizzo. Dalle simulazioni svolte sembra emergere che addestrare in maniera efficiente le connessioni fra le aree uni-sensoriali dei nomi, ricreando così un'integrazione multi-sensoriale, sia un fattore fondamentale per favorire non solo il ricordo di un nome in sé, ma anche processi mnemonici-associativi che coinvolgono anche lo stimolo visivo di un volto. Le evidenze prodotte risultano inoltre qualitativamente coerenti con analoghi esperimenti in vivo.
Resumo:
Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.
Resumo:
La crescente diffusione della Digitalizzazione all’interno di numerosi settori industriali sta trasformando le imprese, persino in aree che da sempre dipendono dalla materialità fisica. Infatti, grazie all’avviamento di una trasformazione digitale nell’operatività aziendale è possibile aumentare la propria efficienza produttiva e la propria flessibilità, producendo un effetto senza precedenti sulla competitività della catena del valore globale. Sebbene i vantaggi attuali e potenziali della produzione digitale siano notevoli, spesso le imprese manifatturiere risultano essere ritardatarie nell’adozione di strategie digitali. Più precisamente, il seguente elaborato di Tesi si è focalizzato sulla digitalizzazione degli elaborati tecnici meccanici all’interno di un’azienda leader nella progettazione e costruzione di macchine e linee personalizzate atte al confezionamento di prodotti farmaceutici e cosmetici: Marchesini Group S.p.A. In particolare, inizialmente lo studio si è concentrato sull’analisi dell’attuale utilizzo del disegno tecnico all’interno della catena produttiva di una macchina automatica e, successivamente, sull’elaborazione di una proposta di sviluppo di un applicativo che fosse in grado di eliminare efficacemente il formato cartaceo degli elaborati tecnici mediante una digitalizzazione degli stessi e dei processi gestionali che lo utilizzano. Pertanto, un primo obiettivo della presente Tesi è analizzare le diverse criticità connesse all’attuale gestione della produzione di una macchina automatica in termini di tempi, costi ed inefficienze dovute prevalentemente alla presenza del formato cartaceo dei documenti tecnici. In aggiunta, come secondo obiettivo, si vuole verificare che la proposta di sviluppo di un applicativo funzionale alla digitalizzazione dei disegni tecnici non comporterebbe dei benefici solamente in termini economici ma anche in termini di produttività, in quanto migliorerebbe le prestazioni all’interno dell’intero sistema produttivo.
Resumo:
L’uscita dalla pandemia, il conflitto russo-ucraino e la corsa ai bonus edilizia hanno provocato un generale aumento del prezzo dei materiali edili e delle opere provvisionali. I ponteggi hanno visto particolari rincari, per via del fatto che superbonus e bonus facciate ne richiedono un ampio utilizzo. Nel presente elaborato si è cercata una soluzione a tale criticità nelle direzioni che sta prendendo a livello internazionale il settore delle costruzioni, sulla strada della digitalizzazione e dell’applicazione di soluzioni informatiche in grado di ottimizzare i processi. Si è perciò creato un modello parametrico di ponteggio a telai prefabbricati che si adatti nel miglior modo possibile a ogni tipo di fabbricato. Nello specifico, è stato elaborato un algoritmo che, dati il sedime e l’altezza dell’edificio, generi in maniera automatica il modello tridimensionale del ponteggio, consentendo la visualizzazione immediata del suo sviluppo nello spazio del cantiere e l’estrapolazione di elaborati grafici quali pianta e prospetti. Nella presente dissertazione viene illustrato come è stato sviluppato tale algoritmo, utilizzando il software Revit e in particolare lo strumento di programmazione visiva Dynamo. Infine, poiché l’obiettivo è quello di individuare un algoritmo applicabile a qualsiasi edificio dato, il modello viene testato su un caso di studio particolare: la ristrutturazione di un fabbricato all’interno del complesso Cooperativa Sociale CIM.
Resumo:
L’influenza e lo sviluppo delle nuove tecnologie hanno generato svariati cambiamenti in tutti i settori della società e, di conseguenza, anche la traduzione è stata inevitabilmente coinvolta. Internet permette l'interazione quotidiana di lingue e culture distanti centinaia di chilometri, rendendo necessaria la mediazione linguistica e culturale e dando vita a un nuovo ramo della traduzione: la localizzazione. L’elaborato presenta il progetto di localizzazione del sito web Tryber, dell’azienda informatica italiana Unguess. Nell’ottica dell’internazionalizzazione, l’azienda ha richiesto che la propria piattaforma web di crowdtesting venisse sottoposta a un processo di localizzazione dall’italiano verso lo spagnolo. Il progetto di tesi è suddiviso in due sezioni principali, ciascuna composta da due capitoli: la prima parte fornisce un quadro teorico, mentre la seconda presenta il lavoro pratico. Il primo capitolo fornisce una panoramica teorica sulla localizzazione e ne presenta le peculiarità, prestando particolare attenzione alla traduzione per il web. Il secondo capitolo si concentra sulla presentazione dell’azienda Unguess per cui è stato svolto il lavoro e sulla sua comunità di crowdtesting, Tryber. Il terzo capitolo illustra la metodologia di lavoro e gli strumenti di traduzione assistita e automatica utilizzati. Il quarto e ultimo capitolo è dedicato all'analisi testuale e al commento traduttologico delle sezioni localizzate, che mira a illustrare le problematiche riscontrate e a spiegare le ragioni delle principali scelte traduttive.
Resumo:
Il presente elaborato analizza le rese del sistema di interpretazione automatica WT2 Plus di Timekettle in un reale contesto didattico. Nello specifico, sono state condotte tre sperimentazioni presso l’Accademia Europea di Manga utilizzando due modalità di interpretazione supportate dal dispositivo. L’obiettivo è valutare la qualità di un sistema di interpretazione automatica in un contesto reale, dato che allo stato attuale mancano studi che valutino la performance di questi dispositivi nei reali contesti per i quali sono stati sviluppati. Il primo capitolo ripercorre la storia dell’interpretazione automatica, cui fa seguito la spiegazione della tecnologia alla base dei sistemi disponibili sul mercato, di cui poi si presenta lo stato dell’arte. Successivamente si delinea in breve il prossimo passaggio evolutivo nell’interpretazione automatica e si analizzano tre casi studio simili a quello proposto. Il capitolo si conclude con l’approccio scelto per valutare la performance del dispositivo. Il secondo capitolo, dedicato alla metodologia, si apre con una panoramica su WT2 Plus e sull’azienda produttrice per poi descrivere il metodo usato nelle sperimentazioni. Nello specifico, le sperimentazioni sono state condotte durante alcune delle attività previste nel normale svolgimento delle lezioni presso l’Accademia Europea di Manga con il coinvolgimento di uno studente anglofono e di due membri del personale accademico. I dati raccolti sono analizzati e discussi rispettivamente nei capitoli 3 e 4. I risultati ottenuti sembrano suggerire che il dispositivo non sia, allo stato attuale, compatibile con un reale contesto didattico, per via del quasi mancato funzionamento di una delle modalità prescelte, per il servizio di interpretazione, che risulta ancora troppo letterale, la monotonia dell’intonazione della voce automatica e infine per la traduzione quasi completamente errata della terminologia tecnica.
Resumo:
La segmentazione prevede la partizione di un'immagine in aree strutturalmente o semanticamente coerenti. Nell'imaging medico, è utilizzata per identificare, contornandole, Regioni di Interesse (ROI) clinico, quali lesioni tumorali, oggetto di approfondimento tramite analisi semiautomatiche e automatiche, o bersaglio di trattamenti localizzati. La segmentazione di lesioni tumorali, assistita o automatica, consiste nell’individuazione di pixel o voxel, in immagini o volumi, appartenenti al tumore. La tecnica assistita prevede che il medico disegni la ROI, mentre quella automatica è svolta da software addestrati, tra cui i sistemi Computer Aided Detection (CAD). Mediante tecniche di visione artificiale, dalle ROI si estraggono caratteristiche numeriche, feature, con valore diagnostico, predittivo, o prognostico. L’obiettivo di questa Tesi è progettare e sviluppare un software di segmentazione assistita che permetta al medico di disegnare in modo semplice ed efficace una o più ROI in maniera organizzata e strutturata per futura elaborazione ed analisi, nonché visualizzazione. Partendo da Aliza, applicativo open-source, visualizzatore di esami radiologici in formato DICOM, è stata estesa l’interfaccia grafica per gestire disegno, organizzazione e memorizzazione automatica delle ROI. Inoltre, è stata implementata una procedura automatica di elaborazione ed analisi di ROI disegnate su lesioni tumorali prostatiche, per predire, di ognuna, la probabilità di cancro clinicamente non-significativo e significativo (con prognosi peggiore). Per tale scopo, è stato addestrato un classificatore lineare basato su Support Vector Machine, su una popolazione di 89 pazienti con 117 lesioni (56 clinicamente significative), ottenendo, in test, accuratezza = 77%, sensibilità = 86% e specificità = 69%. Il sistema sviluppato assiste il radiologo, fornendo una seconda opinione, non vincolante, adiuvante nella definizione del quadro clinico e della prognosi, nonché delle scelte terapeutiche.
Resumo:
Si presenta lo sviluppo di una nuova applicazione web, chiamata tonicarD, che fornisce gli strumenti per fare annotazione dei documenti che costituiscono il catalogo storico della Biblioteca Universitaria di Bologna. Si tratta di schede scritte a mano dal dott. Andrea Caronti nella seconda metà dell'Ottocento, che si ha interesse a digitalizzare. A questo scopo, si è progettato il sistema tonicarD, che permette di eseguire la segmentazione e la trascrizione delle scansioni di tali documenti e genera le immagini che verrano usate per popolare un dataset su cui allenare un modello di riconoscimento automatico del testo. L'applicazione implementa anche lo sviluppo di un algoritmo di segmentazione automatica, oltre che un'approssimativa trascrizione della scheda, con l'obiettivo di agevolare l'utente nell'esecuzione dell'annotazione. Il lavoro include anche test per misurare la qualità della segmentazione automatica e test di usabilità dell'interfaccia, in cui si mettono a confronto l'esperienza degli utenti su tonicarD e Transkribus.