754 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
La quantificazione del benzene ematico è un tema di grande interesse nell'ambito della tossicologia occupazionale. La determinazione dell'analita, estratto nello spazio di testa di un vial, è eseguita mediante l'utilizzo di un gascromatografo con rilevatore a ionizzazione di fiamma (GC-FID). Si è cercato di ottimizzare il processo di estrazione del benzene dal sangue allo spazio di testa ed il successivo trasferimento dell'analita nella colonna cromatografica, mediante l'applicazione di un disegno sperimentale fattoriale a tre fattori e due livelli (DoE). I fattori individuati per impostare il piano sperimentale sono stati: variazione della temperatura di incubazione (A) del vial contenente il campione di sangue, pH del campione (B), modulato mediante aggiunta di una soluzione di H2SO4 e forza ionica (C), regolata mediante una soluzione acquosa di NaCl. I livelli scelti per ciascuna variabile sono stati: per A 40 e 60 °C; per B pH naturale del campione e pH a seguito dell'aggiunta di 1 mL di H2SO4 1.8 M; per C FI naturale del campione e FI dovuta all'aggiunta di una soluzione acquosa di sodio cloruro (5 g/L). Dall'analisi dei risultati forniti dal DoE, si è osservato che A, B e C hanno effetti tra loro contrastanti, per questo motivo non sembra essere vantaggioso combinare variabili differenti. In compenso, sia l'aumento di temperatura che l'aggiunta di acido solforico portano a significativi miglioramenti nell'estrazione di benzene dal sangue. Tra i tre trattamenti risulta essere B quello più efficace, motivo per il quale si ritiene che l'aggiunta di una soluzione acquosa di H2SO4 al campione di sangue porti ad una maggiore sensibilità e risoluzione strumentale. Sicuramente la sensibilità del metodo elaborato non può essere paragonata alle tradizionali determinazioni con spettrometro di massa, ma si ritiene possa essere sufficientemente soddisfacente per valutare l'esposizione a benzene dei lavoratori a rischio e come analisi di screening rapida ed economica.
Resumo:
Con il crescente utilizzo delle reti wireless la sicurezza e l'affidabilità del servizio stanno diventando requisiti fondamentali da garantire. Questo studio ha come obiettivi il rilevamento di un attacco jammer e la classificazione della tipologia dell'attacco (reattivo, random e periodico) in una rete wireless in cui gli utenti comunicano con un access point tramite il protocollo random access slotted Aloha. La classificazione degli attacchi è infatti fondamentale per attuare le dovute contromisure ed evitare cali di performance nella rete. Le metriche estratte, fra cui la packet delivery ratio (PDR) e la rispettiva analisi spettrale, il rapporto segnale rumore medio e la varianza dell'rapporto segnale rumore, sono risultate essere efficaci nella classificazione dei jammers. In questo elaborato è stato implementato un sistema di detection e classificazione di jammer basato su machine learning, che ha permesso di ottenere una accuratezza complessiva del 92.5% nella classificazione ed una probabilità di detection superiore al 95% per valori di PDR inferiori o uguali al 70%.
Resumo:
Lo scopo del presente lavoro di tesi sperimentale è stato quello di caratterizzare il controllo motorio di bambini affetti da scoliosi idiopatica e di valutarne le alterazioni rispetto ad una popolazione a sviluppo tipico dello stesso range di età. La caratterizzazione è avvenuta grazie ad un approccio basato su sensori indossabili, che ha consentito di estrarre e quantificare un gruppo di metriche che includono parametri temporali del cammino, la loro variabilità e le metriche non lineari (RQA, MSE, HR). Queste ultime sono state estrapolate mediante l'elaborazione dei segnali provenienti dai sensori applicati su caviglie e tronco dei singoli soggetti. L'implementazione degli script utili è avvenuta mediante il software Matlab. I risultati suggeriscono che la scoliosi idiopatica influisca sul controllo motorio dei pazienti scoliotici e ciò si traduce in un cammino più lento, meno stabile e meno maturo, denotato da un’asimmetria temporale ma anche da un’asimmetria con pendolazione destrutturata.
Resumo:
Il presente elaborato di tesi tratta della tematica relativa alla razionalizzazione del processo di pianificazione della produzione nell’azienda Schneider Electric Industrie Italia S.p.A. Tale progetto è nato dalla necessità aziendale di avere una schedulazione della produzione più standardizzata a seguito della crisi dei componenti e del loro difficile reperimento, in modo tale da ottenere un piano di produzione che, avviasse la produzione degli ordini producibili e ne monitorasse l’avanzamento con l’obiettivo di restituire ai clienti finali una data di consegna che fosse accurata. Per poter programmare e ottenere una sequenza di produzione ottimizzata si è deciso di applicare ad ogni linea di produzione diverse regole di carico e scegliere lo scenario migliore tra tutti quelli ottenuti. Per decidere quale fosse la schedulazione migliore sono stati calcolati diversi indici di prestazione e come parametro principale di scelta, in accordo con le priorità aziendali, si è data maggior importanza al metodo che fosse in grado di schedulare la produzione riducendo il numero di ordini in ritardo. Come risultato l’aspettativa era quella di trovare una regola di scheduling da poter applicare all’intero reparto di assemblaggio, per contro, a seguito dell’analisi effettuata, si è riscontrato che in funzione del portafoglio ordini specifico di ogni famiglia di prodotto esisteva, per ogni linea, un metodo diverso che andava a migliorare lo scenario attuale, minimizzando il numero di ordini in ritardo. Pertanto, senza congelare il piano di produzione in quanto si andrebbe a ridurre la flessibilità produttiva necessaria per rispondere prontamente ai cambiamenti dinamici del mercato, si è ottenuto che per schedulare la produzione è necessario applicare per ogni linea diversi metodi di scheduling, comparare tra di loro i risultati ottenuti e infine utilizzare quello che, a seconda del portafoglio ordini relativo a quella specifica linea, va migliorare le prestazioni di produzione.
Resumo:
Le recenti Normative hanno portato via via all’imposizione di limiti sempre più stringenti circa le emissioni acustiche prodotte da impianti oleodinamici in funzione. In aggiunta a ciò, l’avvento dell’elettrificazione dei motori nel settore dei trasporti e nell’automotive ha reso indispensabile sviluppare nuove soluzioni di pompe più silenziose. Il presente elaborato tratta una nuova tipologia di pompa volumetrica ad ingranaggi esterni sviluppata dall’azienda Marzocchi Pompe S.p.A. con range di cilindrata da 3 a 14 cm3/giro, la quale presenta una coppia di ingranaggi a denti elicoidali con profilo coniugato. A seguito di una descrizione sulla natura delle emissioni sonore all’interno di una pompa ad ingranaggi tradizionale sono state individuate le cause scatenanti del problema. Vengono dunque descritte le procedure e le tecniche costruttive messe in atto per realizzare una soluzione adatta alla riduzione della rumorosità. Al fine di validare tale soluzione, si descrivono i test eseguiti su dedicati banchi di prova. Una volta ottenuti i dati, essi sono stati confrontati con quelli relativi ad altre pompe. Si può dunque concludere che la soluzione proposta garantisce una netta riduzione delle emissioni acustiche avendo efficienze confrontabili con le pompe più tradizionali. Infine, è stato predisposto un metodo sperimentale per valutare, a seguito dello studio di oscillazioni sonore prodotte dalla pompa in questione, se in essa fossero presenti difetti e di quale natura.
Resumo:
Questo elaborato è il risultato dell’approfondimento del brief di tirocinio presso Focchi S.p.A. L’idea di progetto è quella di ricavare un prodotto industriale dai rifiuti, dai campioni inutilizzati e dagli avanzi di magazzino. Questo obiettivo richiede ideazione e costituzione di un’architettura prodotto, ma anche selezione dei materiali, implementazione tecnica e inserimento nel processo aziendale. Quindi il lavoro è cominciato con una documentazione sull’ambiente delle costruzioni, e i danni ambientali che progettare in maniera non-circolare comporta. Poi è stata studiata l’azienda e il percorso che i materiali fanno durante la produzione. Una volta inquadrato il problema è cominciata la fase di concept. La varietà di materiali ha generato molte idee, quindi ne è stata selezionata una utilizzando criteri misurabili, attraverso il metodo QFD, tenendo conto di vari parametri di natura ambientale, economica e sociale. Il concept selezionato è stato quindi una serra, da donare alle scuole primarie, in cui praticare l’idroponica: la struttura vetrata della serra è simile agli involucri trattati da Focchi e la destinazione didattica garantisce un buon impatto sulla comunità. A questo punto, il progetto è stato sviluppato, tramite uno studio dei dettagli tecnici. Quindi un inquadramento storico-architettonico è stato integrato con una documentazione normativa sulle strutture vetrate, oltre all’analisi del territorio circostante l’azienda in cui individuare possibili beneficiari del progetto. In seguito, c’è stata una fase di sketching, attraverso un’analisi dei requisiti della struttura e dei materiali a disposizione. Oltre ad una soluzione scalabile per il collegamento fra cellule, è stata definita la forma, disegnata con approccio modulare. Le ultime considerazioni riguardo la fattibilità del progetto sono state fatte dal punto di vista logistico ed economico, per un prodotto ormai sufficientemente dettagliato e pronto per l’implementazione.
Resumo:
Nel seguente elaborato di tesi si è studiata la riqualificazione energetica di un edificio ad uso espositivo, di notevole volumetria, durante una esperienza di tirocinio svolta presso MoRe Energy s.r.l.. Inizialmente il cliente ha commissionto il lavoro limitandosi al voler sostituire l'attuale impianto ad aria a servizio di una parte dell'immobile ma, in fase di lavoro, si è evidenziato che le notevoli dispersioni in inverno e gli apporti in estate erano tali da non garantire le corrette condizioni di comfort secondo le norme di settore. Si è quindi predisposta una dettagliata analisi dei carichi termici invernali ed estivi, predisponendo degli interventi sull'involucro tali da migliorare il benessere da un punto di vista globale. Per fare questo ci si è avvalsi del software commerciale DesignBuilder, che monta al suo interno EnergyPlus come motore di calcolo, un codice di calcolo dinamico molto performante basato sul metodo Ashrae Heat Balance. Valutati gli interventi sull'involucro si è passati a predisporre una soluzione impiantistica: si è valutato che un impianto ad aria misto con UTA e termoventilanti ad integrazione fosse la soluzione migliore per l'edificio. Infine, si è studiata una possibile canalizzazione dell'aria utilizzando il metodo a perdita di carico unitaria costante.
Resumo:
Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.
Resumo:
Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.
Resumo:
Ogni giorno, nel mondo, si verificano migliaia di fratture ossee e la maggior parte di esse, con il passare del tempo, riescono a rimarginarsi in modo autonomo. In casi più importanti, le fratture ossee necessitano di interventi chirurgici. Per queste motivazioni, affianco ad autoinnesti, alloinnesti e xenoinnesti, negli ultimi anni si è iniziato a parlare in modo sempre più frequente di ingegneria tissutale. In questo tipo di ingegneria, vengono sviluppate delle impalcature in grado di emulare il tessuto osseo naturale. Lo scopo di questa tesi è analizzare le varie tipologie di produzione di scaffold ossei che si ottengono attraverso la tecnologia della stampa 3D. Nella parte introduttiva dell’elaborato, viene inserita una descrizione del tessuto osseo visto sia dal punto di vista cellulare e della composizione, sia dal punto di vista delle proprietà meccaniche. Successivamente, parlando di medicina rigenerativa, vengono descritti i mezzi di osteosintesi, gli innesti e le impalcature, o scaffold, da impiantare nel sito di interesse. Per quanto riguarda gli scaffold, devono soddisfare diversi requisiti, tra cui la biomimetica, la compatibilità con l’attività cellulare, requisiti di progettazione e proprietà meccaniche adeguate. Tali scaffold possono essere realizzati attraverso diverse geometrie interne. Nella seconda parte dell’elaborato, vengono analizzate le geometrie a cubo semplice, a cubo a faccia centrata/a diamante, a cubo a corpo centrato, a dodecaedro rombico, a traliccio di ottetto, a cubo troncato, modellate attraverso il metodo delle superfici minime triplamente periodiche e con tassellatura di Voronoi. Per i vari articoli analizzati sono stati investigati i metodi di produzione e i risultati ottenuti confrontando vantaggi e svantaggi fra le differenti geometrie.
Resumo:
La conversione di energia solare in energia elettrica può avvenire in diversi modi. Un problema dell’energia ottenuta tramite questa conversione è la difficoltà di immagazzinarla efficientemente per poterla utilizzare in un momento successivo. Un modo per ovviare questo problema è convertire l’energia solare in energia chimica, tramite la creazione di combustibili fotoprodotti. Alcuni combustibili di questo tipo sono l’idrogeno e gli idrocarburi ad alta densità energetica, il primo ottenuto tramite l’elettrolisi dell’acqua e i secondi tramite l’elettrolisi dell’anidride carbonica. Un metodo per compiere tali elettrolisi è l’utilizzo di celle fotoelettrochimiche, ovvero dei dispositivi che tramite l’energia solare assorbita avviano l’elettrolisi della soluzione acquosa che si decompone in due regioni separate della cella. L’efficienza di una cella fotoelettrochimica dipende fortemente dall’efficienza dei fotoelettrodi che la compongono, per questo si indagano nuovi materiali che possano garantire prestazioni migliori a costi bassi. Questa tesi nello specifico ha lo scopo di illustrare il processo di fabbricazione di fotocatodi a base di semiconduttori tramite sputtering magnetico. In particolare vengono analizzati 4 campioni strutturati con diversi materiali. I materiali utilizzati sono: Seleniuro di Rame Indio Gallio CIGS, Solfuro di Cadmio CdS, Ossido di Zinco drogato con Alluminio AZO ed Ossido di Titanio TiO2.
Resumo:
L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.
Resumo:
Il problema di Maxwell canonico si suddivide nel problema di Maxwell omogeneo e nel problema di Maxwell non omogeneo, o della radiazione, a seconda che siano presenti le correnti impresse. Il problema della radiazione ci mostra come si può generare un’onda elettromagnetica. In questo elaborato si risolverà il problema di Maxwell non omogeneo utilizzando un metodo relativamente nuovo che sfrutta la funzione di Green e la funzione generalizzata tridimensionale di dirac. Tramite quest'ultima, vedremo come sarà possibile riscrivere l’elemento infinitesimo di corrente impressa.
Resumo:
Le protesi con invasatura per amputati transfemorali sono considerate il gold standard di riferimento. Esse possono indurre numerose problematiche. Per far fronte a ciò sono state sviluppate delle protesi chiamate protesi osteointegrate. Non essendo ancora presenti standard specifici per i test meccanici riguardanti queste protesi, l’obiettivo generale dello studio è stato quello di definire un metodo di prova ripetibile per determinare le proprietà di resistenza di uno stelo protesico osteointegrato e l’interazione dello stelo protesico con l’osso. In particolare, è stata valutata la fattibilità dell’esperimento e la qualificazione dei metodi sperimentali per lo studio della stabilità meccanica e dell’integrità di una protesi per amputati transfemorali. Inoltre, è stata valutata la fattibilità dell’esperimento e la qualificazione dei metodi sperimentali per lo studio delle deformazioni sulla superficie dell’osso con impiantata la protesi. Per il raggiungimento di tale obiettivo sono stati condotti degli studi sulle normative ISO e sui carichi a cui è sottoposto il femore durante lo svolgimento di azioni di vita quotidiana. In seguito, è stato progettato un primo prototipo concettuale di stelo protesico personalizzato da utilizzare per mettere a punto le prove utilizzando un femore composito. Sono state svolte delle prove meccaniche di presso-flessione sul dispositivo protesico e sul dispositivo protesico impiantato nell’osso. Sono state quindi valutate le deformazioni massime sulla superficie dell’osso in corrispondenza dei picchi di carico massimo raggiunto. I metodi definiti per lo svolgimento della prova meccanica sul dispositivo protesico e della prova meccanica sull’osso con il dispositivo impiantato consentono di effettuare delle prove meccaniche ripetibili e riproducibili. Tali prove consentono di valutare la resistenza a fatica dello stelo protesico e le deformazioni superficiali dell’osso nel quale è impiantato.
Resumo:
Lo scopo dell’elaborato è quello di valutare una prima applicazione di intelligenza artificiale per svolgere manutenzione predittiva sui giunti installati nella rete di distribuzione, al fine di prevenirne i guasti. L’estensione delle reti in cavo è infatti in costante aumento per supportare lo sviluppo della rete elettrica e, per l’installazione di nuove linee o nella manutenzione di cavi, si fa uso di giunti, spesso soggetti a guasti e di difficile manutenzione. Risulta quindi importante svolgere manutenzione predittiva su questi componenti, al fine di prevenirne i guasti ed ottenere un risparmio in termini di tempo e denaro. A seguito un’attenta analisi della struttura dei giunti, dei loro modi di guasto e dei parametri caratteristici, si è proceduto alla generazione sintetica di un dataset contenente misure sui giunti e, sulla base di specifici criteri applicati a questi valori, l’informazione sulla presenza o sull’assenza di un guasto. Il dataset è stato poi utilizzato per la fase di apprendimento e di test di sei algoritmi di machine learning, selezionati a partire da considerazioni sullo stato dell’arte, valutato tramite una Revisione Sistematica della Letteratura (SLR). I risultati così ottenuti sono stati analizzati tramite specifiche metriche e da questo caso di studio sono emerse le elevate potenzialità delle tecnologie di intelligenza artificiale ai fini della prevenzione dei guasti nelle reti di distribuzione, soprattutto se considerata la semplicità implementativa degli algoritmi.