897 resultados para contactless sistema di misura ottico elettrofilatura triangolazione
Resumo:
Una delle aree di maggiore innovazione nella diagnostica per immagini è rappresentata dalla possibilità di fondere le scansioni PET e TC in un sistema di acquisizione ibrido che realizza entrambi gli studi in un'unica seduta. Questa tecnica abbina infatti la capacità di raccogliere le immagini ad alta definizione della TC che può essere eseguita anche con il mezzo di contrasto tradizionale, con informazioni metaboliche estremamente dettagliate raccolte dalla PET, unificandole in un sistema di immagini ibride. Attualmente la PET ha un preminente utilizzo in campo oncologico, tanto che circa l’80% degli esami effettuati è mirato a monitorare la risposta dei pazienti a trattamenti contro il cancro e a discriminare o caratterizzare lesioni dubbie evidenziate in studi morfologici effettuati con CT e MRI. Oltre all’ambito delle patologie neoplastiche, le tecniche di imaging PET/CT hanno dimostrato una importanza rilevante anche in applicazioni di cardiologia e neurologia.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
La Correlazione digitale d’immagini (digital image correlation, DIC) è una tecnica di misura delle deformazioni e degli spostamenti, relativamente nuova, che permette di fare misure a tutto campo di tipo non invasivo. In questa tesi di Laurea Magistrale in Ingegneria Meccanica si è proceduto alla sua ottimizzazione e validazione per un’applicazione di tipo biomeccanico (distribuzione di deformazioni in segmenti ossei). Sono stati indagati i parametri di post-processo, di pre-acquisizione e di preparazione del provino. Per la validazione dello strumento sono stati confrontati i risultati ottenuti da provini di forma semplice con quelli teorici, così da avere una stima di quanto il dato misurato si discosti da quello reale. Infine, quanto appreso prima, è stato applicato a una vertebra umana, oltrepassando il limite, finora presente, di misure puntuali con estensimentri.
Resumo:
La coltivazione massiva di microalghe ha lo scopo di produrre biomassa su larga scala per ottenere prodotti e processi utili, grazie al loro elevato contenuto di carboidrati, proteine, lipidi, pigmenti e altri composti, che sono utilizzati a livello industriale in campo alimentare, medico e nutraceutico. L’elevata potenzialità di utilizzo di questa biomassa ha assunto un ruolo primario nell’ambito della produzione di energia ecocompatibile o di processi utili per l’ambiente. Dalle microalghe è possibile estrarre lipidi da utilizzare come biocarburanti e possono trovare applicazione anche nel trattamento di reflui domestici ed industriali, nella produzione di composti bioattivi atti alla produzione di biopolimeri, fertilizzanti e ammendanti. Le problematiche inerenti ad una produzione industriale, riguardano la riduzione dell’impatto energetico, ambientale ed i costi di produzione con l’obbiettivo di massimizzare la resa della coltura; questo potrebbe essere realizzato attraverso l’utilizzo di sostanze di crescita che diversi studi mostrano come siano presenti naturalmente nelle microalghe. Il lavoro di questa tesi si è incentrato sulla valutazione degli effetti di ormoni vegetali sulla crescita e la composizione molecolare della microalga verde Desmodesmus communis, organismo noto nell’ambito del trattamento delle acque reflue e specie alternativa nella produzione di energia rinnovabile grazie alle sue caratteristiche fisiologiche. La crescita è stata monitorata attraverso conteggio cellulare, consumo di nutrienti, misurazione del peso secco e dell’efficienza fotosintetica; la composizione molecolare è stata quantificata analizzando il contenuto di polisaccaridi, proteine e lipidi delle cellule. Dapprima è stato eseguito uno screening preliminare di cinque fitormoni a concentrazioni diverse, allo scopo di selezionare lo stimolante biochimico con maggior effetto. Selezionato l’ormone, si è poi proceduto ad allestire colture batch, in cui il composto, l’auxina acido fenilacetico, è stato aggiunto alla concentrazione prescelta e successivamente, avvalendosi dell’utilizzo di due fotobioreattori colonnari, è stato valutato l’effetto dell’ormone selezionato in un sistema di coltura semicontinuo, ipotizzando una coltivazione industriale su larga scala.
Resumo:
L'esigenza di poter usufruire in clinica di uno strumento per l'analisi cinematica dell'arto superiore altamente attendibile che fornisca dati clinicamente validi e facili da interpretare e rapidamente applicabile dal personale medico competente, ha posto le basi per la realizzazione del modello che in questa tesi viene proposto. L'obiettivo è stato definire un metodo di misura per l'analisi delle traiettorie dell'arto superiore basato su un modello di markerizzazione che sia clinicamente attuabile e descriva la catena completa dell'estremità superiore interessata nel gesto di “reaching” indipendentemente dalla patologia.
Resumo:
Questo lavoro di tesi si è posto i seguenti obiettivi: - Analizzare come i singoli parametri infuenzano le prestazioni del modello, in maniera tale da capire su quali di essi il modello risulta essere più sensibile, al fine di ottimizzare le sue prestazioni; - Fare in modo che l'intervallo di confidenza del modello sia il più vicino possibile a quello dello strumento di misura utilizzato durante lo studio clinico \Socrathe(3 mmol/l). Riuscire a portare, infatti, la deviazione standard sull'errore globale ottenuta dal modello da 1,83 mmol/l a 1,50 mmol/l significa avere un IC95% uguale a quello dello strumento di misura; - Migliorare la predizione del modello negli istanti temporali in cui esso si discosta di più dal valore vero. Una volta messi in evidenza i parametri più significativi, grazie all'analisi di sensitività, si andrà ad effettuare una procedura di ottimizzazione di tali parametri al fine di minimizzare una funzione costo rappresentante il grado di scarto tra modello e realtà. La struttura della tesi consta di tre capitoli: il primo rigurda una introduzione alle funzioni del rene e alle terapie dialitiche, il secondo rigurda gli strumenti e i metodi utilizzato in questo lavoro, mentre il terzo capitolo illustra i risultati ottenuti.
Resumo:
L'attività svolta in HSD S.p.A. si è concentrata sulle seguenti tematiche: progettazione di un nuovo layout con annessa pianificazione delle attività necessarie e valutazione economica dell'investimento, audit focalizzato ad individuare le criticità legate al processo di logistica inversa e proporne soluzioni migliorative ed infine implementazione di un sistema di controllo specifico e comparato dei fornitori.
Resumo:
L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio
Resumo:
In questo elaborato è stata trattata la caratterizzazione tramite simulazioni e prove in laboratorio di un circuito in grado di estrarre e accumulare energia elettrica, la quale viene generata da vibrazioni meccaniche tramite l'uso di dispositivi piezoelettrici. Partendo da una tipologia di circuito già esistente è stata studiata una variante nel sistema di conversione dell'energia, in questo caso il convertitore implementato è un convertitore di tipo flyback. Dopo aver studiato il circuito in dettaglio, è stata realizzata una prima simulazione circuitale mediante software Ltspice. Sono stati quindi analizzati gli andamenti delle tensioni di uscita e di ingresso durante il processo di carica della capacità, applicando in ingresso differenti tensioni. Infine i dati ottenuti sono stati elaborati in un foglio elettronico per poter ricavare l'andamento del rendimento.
Resumo:
In questo lavoro di tesi si è sviluppato un sistema di supporto al fisioterapista per la definizione degli esercizi da far eseguire al paziente che consenta di automatizzare il controllo della corretta esecuzione degli esercizi stessi da parte del paziente. Si è realizzato un linguaggio per codificare gli esercizi ed un editor per poterli esprimere, attraverso il linguaggio, da parte dello specialista. E' stato realizzato un motore che riesca a valutare in modo automatico se il paziente sta eseguendo correttamente gli esercizi proposti, confrontando le pose riconosciute utilizzando il sensore Microsoft Kinect con le pose degli esercizi definiti attraverso l'editor. Il filo conduttore per la realizzazione del linguaggio e del motore è stata la teoria del Calcolo degli Eventi, estesa con il concetto di aspettativa.
Resumo:
Questo elaborato ha come argomento lo sviluppo di un progetto informatico creato per mettere in comunicazione tra di loro un sistema di gestione e controllo del ricambio di acqua in una piscina e un dispositivo mobile. Per la realizzazione del sistema di controllo è stata utilizzata una scheda Arduino Mega 2560 munita di modulo Ethernet, mentre, per quello che concerne il dispositivo mobile, la scelta è ricaduta su un device dotato di sistema operativo Android. La comunicazione tra questi due attori è mediata attraverso un server scritto in Java che gira nella stessa rete locale in cui è presente la scheda Arduino. Il progetto può essere inserito nell'ambito dell'Internet of Things, dove ogni oggetto è caratterizzato dalla possibilità di connettersi ad Internet e scambiare informazioni con ogni altro oggetto creando una rete. Questo progetto è suddiviso in tre parti: la prima si occupa della definizione di due protocolli di comunicazione tra le varie componenti, uno per lo scambio di messaggi tra client Android e Server Java e un secondo per quello tra scheda Arduino e Server; la seconda parte è incentrata sulla realizzazione del server Java che rende accessibile la scheda da qualsiasi luogo e permette la raccolta dei dati rilevanti provenienti dalla centralina. L’ultima parte infine è quella relativa allo sviluppo di una applicazione per Android che permette di monitorare il tutto e interagire con la centralina stessa.
Resumo:
La tesi descrive la progettazione e lo sviluppo di un network informativo accessibile come Web App e come app sullo store Android, sviluppato con architettura Client / Server grazie ad un sistema di API sviluppato parzialmente ad-hoc.
Resumo:
L’acceleratore di particelle LHC, al CERN di Ginevra, permette studi molto rilevanti nell'ambito della fisica subnucleare. L’importanza che ricopre in questo campo il rivelatore è grandissima ed è per questo che si utilizzano tecnologie d’avanguardia nella sua costruzione. É altresì fondamentale disporre di un sistema di acquisizione dati quanto più moderno ma sopratutto efficiente. Tale sistema infatti è necessario per gestire tutti i segnali elettrici che derivano dalla conversione dell’evento fisico, passaggio necessario per rendere misurabili e quantificabili le grandezze di interesse. In particolare in questa tesi viene seguito il lavoro di test delle schede ROD dell’esperimento ATLAS IBL, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Un sistema simile era già implementato e funzionante, ma il degrado dei chip ha causato una perdita di prestazioni, che ha reso necessario l’inserimento di un layer aggiuntivo. Il nuovo strato di rivelatori a pixel, denominato Insertable Barrel Layer (IBL), porta così un aggiornamento tecnologico e prestazionale all'interno del Pixel Detector di ATLAS, andando a ristabilire l’efficacia del sistema.
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.