663 resultados para Tesi Architettura Costruire nel costruito riuso riutilizzo
Resumo:
Lo scopo del presente lavoro di tesi riguarda la caratterizzazione di un sensore ottico per la lettura di ematocrito e lo sviluppo dell’algoritmo di calibrazione del dispositivo. In altre parole, utilizzando dati ottenuti da una sessione di calibrazione opportunamente pianificata, l’algoritmo sviluppato ha lo scopo di restituire la curva di interpolazione dei dati che caratterizza il trasduttore. I passi principali del lavoro di tesi svolto sono sintetizzati nei punti seguenti: 1) Pianificazione della sessione di calibrazione necessaria per la raccolta dati e conseguente costruzione di un modello black box. Output: dato proveniente dal sensore ottico (lettura espressa in mV) Input: valore di ematocrito espresso in punti percentuali ( questa grandezza rappresenta il valore vero di volume ematico ed è stata ottenuta con un dispositivo di centrifugazione sanguigna) 2) Sviluppo dell’algoritmo L’algoritmo sviluppato e utilizzato offline ha lo scopo di restituire la curva di regressione dei dati. Macroscopicamente, il codice possiamo distinguerlo in due parti principali: 1- Acquisizione dei dati provenienti da sensore e stato di funzionamento della pompa bifasica 2- Normalizzazione dei dati ottenuti rispetto al valore di riferimento del sensore e implementazione dell’algoritmo di regressione. Lo step di normalizzazione dei dati è uno strumento statistico fondamentale per poter mettere a confronto grandezze non uniformi tra loro. Studi presenti, dimostrano inoltre un mutazione morfologica del globulo rosso in risposta a sollecitazioni meccaniche. Un ulteriore aspetto trattato nel presente lavoro, riguarda la velocità del flusso sanguigno determinato dalla pompa e come tale grandezza sia in grado di influenzare la lettura di ematocrito.
Resumo:
L’azienda GGP, leader europeo nella produzione di rasaerba e prodotti per il giardinaggio, ha avviato, in collaborazione con il Laboratorio di aerodinamica sperimentale della Facoltà di ingegneria dell’Università di Bologna, uno studio atto alla valutazione delle prestazioni dei rasaerba commercializzati, al fine di comprendere quali siano le vie percorribili per ottenere un miglioramento delle prestazioni associate. Attualmente il metodo utilizzato per compiere tali valutazioni consiste nel far percorrere al rasaerba un percorso di lunghezza prestabilita e valutare il peso dell’erba raccolta nel sacco. Tale approccio presenta delle forti limitazioni in quanto le prove non sono per loro natura ripetibili. Si pensi ad esempio alla non uniformità del terreno e all’altezza dell’erba. È pertanto necessario un approccio in grado di definire con maggior precisione e ripetibilità le prestazioni dei macchinari rasaerba. Tra le diverse prestazioni c’è la capacità della macchina di trattare una portata di aria più elevata possibile garantendo un’elevata aspirazione dell’erba tagliata. Da questo punto vista la geometria della lama riveste un’importanza particolare. Per valutare le prestazioni della singola lama, è stato realizzato un “test-rig lame”, uno strumento con cui è possibile trattare il flusso per renderlo misurabile e valutare la portata d’aria attraverso semplici misure di pressione. Una volta costruito il “test-rig”, sono stati individuati i parametri geometrici delle lame che influenzano la portata, quali apertura, corda e calettamento del flap della lama. Lo studio svolto si limita a valutare gli effetti causati dalla sola geometria della lama prescindendo dalla forma della voluta, in quanto la sua interazione con la lama risulta di grande complessità. Si è quindi avviata una campagna di test sperimentali effettuati su lame caratterizzate da diversi valori dei parametri, che l’azienda stessa ha prodotto e fornito al laboratorio, al fine di trovare relazioni funzionali tra la portata elaborata e la geometria delle lame.
Resumo:
L’avanzare delle tecnologie ICT e l’abbattimento dei costi di produzione hanno portato ad un aumento notevole della criminalità informatica. Tuttavia il cambiamento non è stato solamente quantitativo, infatti si può assistere ad un paradigm-shift degli attacchi informatici da completamente opportunistici, ovvero senza un target specifico, ad attacchi mirati aventi come obiettivo una particolare persona, impresa o nazione. Lo scopo della mia tesi è quello di analizzare modelli e tassonomie sia di attacco che di difesa, per poi valutare una effettiva strategia di difesa contro gli attacchi mirati. Il lavoro è stato svolto in un contesto aziendale come parte di un tirocinio. Come incipit, ho effettuato un attacco mirato contro l’azienda in questione per valutare la validità dei sistemi di difesa. L’attacco ha avuto successo, dimostrando l’inefficacia di moderni sistemi di difesa. Analizzando i motivi del fallimento nel rilevare l’attacco, sono giunto a formulare una strategia di difesa contro attacchi mirati sotto forma di servizio piuttosto che di prodotto. La mia proposta è un framework concettuale, chiamato WASTE (Warning Automatic System for Targeted Events) il cui scopo è fornire warnings ad un team di analisti a partire da eventi non sospetti, ed un business process che ho nominato HAZARD (Hacking Approach for Zealot Attack Response and Detection), che modella il servizio completo di difesa contro i targeted attack. Infine ho applicato il processo all’interno dell’azienda per mitigare minacce ed attacchi informatici.
Resumo:
Al giorno d’oggi il World Wide Web non è più un semplice strumento per la condivisione di informazioni. Le tecnologie nate nel corso dell’ultimo decennio hanno permesso lo sviluppo di vere e proprie applicazioni Web (Web App) complesse, indipendenti e multi-utente in grado di fornire le stesse funzionalità delle normali applicazioni desktop. In questa tesi verranno trattate le caratteristiche di una Web App moderna, analizzandone l’evoluzione e il processo produttivo. Particolare attenzione sarà posta alle Web App distribuite e ai meccanismi di comunicazione client-server che queste nuove tecnologie hanno reso disponibili. I WebSocket, la tecnologia di riferimento di HTML5, saranno riportati come caso di studio e relazionati allo standard precedente ad HTML5, cioè Ajax e Long Polling.
Resumo:
La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.
Resumo:
Creazione di un modello semplificato per l’analisi modale FEM di un carter motociclistico. La scelta degli elementi da considerare nel modello è stata fatta in funzione della loro importanza in termini di variazione di massa del basamento completo, elemento fondamentale che ha influenzato anche la scelta delle semplificazioni da apportare ai vari elementi.
Resumo:
La presenza di un magazzino utensili automatico è, al giorno d’oggi, un “must” per qualsiasi centro di lavoro a controllo numerico, in qualunque settore di applicazione, compreso il mondo delle macchine per la lavorazione del legno. Tali dispositivi influenzano in modo importante la produttività e la flessibilità delle macchine su cui vengono installati. In un mercato altamente competitivo e costantemente alla ricerca dell’eccellenza prestazionale, risulta fondamentale offrire soluzioni sempre aggiornate e innovative, senza perdere di vista il target di costo prefissato. Obiettivo di questa tesi è analizzare in ogni suo aspetto un processo di sviluppo di un magazzino utensili automatico a catena di nuova concezione di produzione del Gruppo SCM, destinato a centri di lavoro CNC per la lavorazione del legno. Tale sviluppo è finalizzato a ottenere un prodotto che vada ad ampliare l’offerta e ad incrementare le prestazioni rispetto alle soluzioni attualmente in listino. L’intera trattazione è frutto della collaborazione con l’ufficio tecnico SCM con sede a Rimini. Inizialmente sono descritte la tipologia e la gamma delle macchine su cui viene installato il magazzino, oggetto di questa tesi. Segue una descrizione dell’analisi concettuale da cui nascono i parametri e i principi guida dell’intero sviluppo. Nel terzo capitolo è presentata l’attuale soluzione proposta da SCM, in termini di struttura e di prestazioni, e nel quarto è esposta l’analisi funzionale dei costi dell’attuale soluzione e il raggiungimento del costo obiettivo della soluzione ridotta. Nel quinto capitolo è presentata la caratterizzazione dello stato dell’arte della pinza d’afferraggio utensili e il processo di sviluppo d’incremento prestazionale.
Resumo:
La fissazione esterna si propone come una metodica alternativa molto valida nel trattamento delle fratture di bacino e delle ossa lunghe, nel massimo rispetto delle parti molli e dell’osso, e nel recupero precoce del movimento articolare. I maggiori vantaggi nell’utilizzo dei fissatori esterni sono rappresentati: dalla possibilità di essere utilizzati in una gamma di situazioni complesse, nelle quali le tecniche tradizionali non danno buoni risultati (ad esempio fratture esposte), dalla semplicità del procedimento chirurgico, dal fatto che evitano un secondo tempo chirurgico per la rimozione dei mezzi di sintesi. Contrariamente a tutti i mezzi di sintesi inoltre, sono indicati nel caso di infezioni. A livello articolare invece, la loro presenza, contrariamente a un gesso, consente la mobilizzazione precoce, sia passiva che attiva, dell’arto interessato, fondamentale per una completa ripresa funzionale. L'esperienza di questa tesi ha mostrato che i criteri di valutazione di un sistema di fissazione esterna sono rappresentati da: stabilità dell’impianto, cioè la capacità del sistema di mantenere la riduzione ottenuta resistendo alle forze di sollecitazione nel tempo, deformabilità elastica dell’impianto, cioè la possibilità di consentire e promuovere micromovimenti a livello del focolaio di frattura, versatilità dell’impianto, cioè la possibilità di realizzare montaggi diversi per rispondere a specifiche richieste terapeutiche, massimo rispetto biologico da parte degli elementi di presa, con un’accettabile ingombro per evitare intolleranze soggettive e semplicità d’applicazione. Pertanto i vantaggi clinici sono: minima invasività, sintesi stabile, compressione inter-frammentaria, versatilità, mobilizzazione precoce e carico precoce. Il presente lavoro si è rivelato uno strumento utile per arrivare alla progettazione finale di un sistema circolare e di un sistema ibrido che possano rispondere entrambi a tutti i requisiti sopra elencati. Ha focalizzato innanzitutto la propria attenzione su un sistema circolare, con il fine ultimo di descrivere in quale modo esso risponde all’applicazione di differenti cicli di carico. La particolarità del sistema studiato è rappresentata dalla possibilità di combinare il sistema circolare con un dispositivo articolato di ginocchio, costituendo così un sistema ibrido di fissazione esterna. Il sistema ibrido ha unito la rigidezza garantita dal sistema monolaterale all’elasticità dei sistemi circolari, in modo tale che le forze, che altrimenti agirebbero sul focolaio di frattura, si possano scaricare sia sul dispositivo monolaterale sia sui cerchi. L’elaborato ha focalizzato quindi la sua attenzione sul sistema ibrido, formato dalla combinazione del sistema circolare e del dispositivo monolaterale articolato, con il fine ultimo di descrivere come anch’esso risponde all’applicazione di differenti cicli di carico.
Resumo:
L'ecografia con mezzo di contrasto è una tecnica non invasiva che consente di visualizzare la micro e la macrocircolazione grazie all'utilizzo di microbolle gassose che si distribuiscono in tutto il sistema cardiovascolare. Le informazioni emodinamiche e perfusionali ricavabili dalle immagini eco con contrasto possono essere utilizzate per costruire un modello a grafo dell'albero vascolare epatico. L'analisi della connettività del grafo rappresenta una strategia molto promettente che potrebbe consentire di sostituire la misurazione del gradiente pressorio venoso del fegato, che richiede cateterismo, determinando un notevole miglioramento nella gestione dei pazienti cirrotici. La presente tesi si occupa della correzione dei movimenti del fegato, che deve essere realizzata prima di costruire il grafo per garantire un'accuratezza adeguata. Per correggere i movimenti è proposta una tecnica di Speckle tracking, testata sia in vitro su sequenze eco sintetiche, sia in vivo su sequenze reali fornite dal Policlinico Sant'Orsola.
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.
Resumo:
Analisi di campi di moto e temperatura in micro condotti al variare delle condizioni operative e della geometria. Dopo una breve introduzione al settore della microfluidica, si presentano, dal punto di vista teorico, le condizioni operative che caratterizzano il moto in presenza di rarefazione, sottolineando come il modello matematico di base per la fluidodinamica debba essere modificato per tenerne conto. Segue una breve parentesi dedicata all’illustrazione delle tecnologie e dei procedimenti di fabbricazione dei moderni microcanali utilizzati in questa recente branca della termofluidodinamica. Si vedrà, successivamente, il comportamento termoidraulico di questi ultimi al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE: il software in questione lascia poi all’utente la gestione del post-processing.
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
Nella prima parte di questo lavoro di tesi è stata effettuata una ricerca sullo stato dell’arte attuale delle macchine per prove a fatica con principio di risonanza. Pertanto viene riportata una descrizione delle necessità che portarono all’interesse verso questa metodologia di prove a fatica oltre che una descrizione delle macchine ad ultrasuoni di concezione moderna, delle loro caratteristiche e dei loro componenti tipici. Successivamente si sono riportati i dibattiti principali riguardanti la validità delle prove ottenute con questa tipologia di macchine. Si è, di seguito, utilizzata la teoria classica delle onde elastiche per illustrare il principio di funzionamento della macchina. Si sono ottenute le soluzioni esatte dei campi di spostamento, deformazione e sforzo nel caso di provini o sonotrodi a sezione costante confrontando successivamente i risultati così ottenuti con soluzione in ambito FEM per dimostrare la validità degli stessi. Lo stesso tipo di analisi è stata effettuata anche per il provino tipico di prove a fatica, ossia il provino circolare, dove la soluzione esatta è stata ottenuta per similitudine nel provino, catenoidale. Sono riportati un breve riassunto dei nuovi fenomeni di fatica che si sono riscontrati grazie alle possibilità di effettuare test in regione VHCF, laddove non era possibile con le macchine convenzionali, e le conclusioni del presente lavoro di tesi.
Resumo:
L’elaborato utilizza un modello neurale, sviluppato nel lavoro di ricerca del prof. Ursino (2010) e successivamente modificato (2011 e 2012), al fine di analizzare alcuni meccanismi alla base della memoria semantica e lessicale. In particolare, la tesi si riferisce alla versione più recente del modello da cui ne deriva uno più semplificato come possibile modalità con cui l’uomo apprende i concetti, li immagazzina in opportune aree cerebrali e collega tali concetti alla parola corrispondente.
Resumo:
L'obiettivo di questa tesi è il contributo alla realizzazione della veneziana frangisole intelligente, attraverso la caratterizzazione dei sensori di temperatura e luminosità e ulteriori simulazioni della veneziana riguardanti gli effetti di bordo. Successivamente si è proceduto alla misurazione pratica della potenza incidente, con gli opportuni strumenti, per verificare l'accuratezza delle simulazioni e prendere provvedimenti nel caso di riscontri negativi.