998 resultados para 620.4 Ingegneria per specifici tipi di ambiente geografico
Resumo:
Le rotture a fatica dei componenti sono dovute principalmente alle tensioni di trazione generate da carichi ciclici e variabili nel tempo. Le cricche causate da questo tipo di tensioni possono propagarsi e crescere fino a causare danni catastrofici nel componente. La fatica costituisce uno dei fattori principali di rottura delle strutture aeronautiche; in campo aeronautico sono quindi molto diffusi dei trattamenti superficiali che permettono di indurre tensioni di compressione che contrastano quelle di trazione, in modo tale da ritardare o prevenire le rotture dovute al fenomeno della fatica. Esistono diverse tecniche per raggiungere questo risultato e permettere di prolungare la vita a fatica di un componente metallico, la più nota è sicuramente il Laser Shock Peening (LSP). Nel corso degli ultimi anni la maggior parte delle ricerche condotte rispetto a questa tecnica sono state incentrate sugli effetti meccanici che questo trattamento ha sul materiale in modo da determinare la configurazione ottimale per ottenere una distribuzione delle tensioni il più efficace possibile ai fini della vita a fatica; sono state svolte diverse prove sperimentali per studiare il ruolo dei parametri del laser e ottimizzare la procedura del LSP. Tra le tecniche utilizzate per valutare gli effetti del LSP in termini di tensioni residue, spiccano, oltre ai metodi computazionali, l'X-ray Diffraction (XRD) e l'Incremental Hole Drilling (IHD). L'elaborato di tesi qui presentato ha come scopo il confronto tra i livelli di tensioni residue riscontrate all'interno di provini sottili in lega di alluminio, sottoposti a differenti trattamenti laser, attraverso i suddetti metodi XRD e IHD. I risultati, già noti, ottenuti con la tecnica l'XRD sono stati posti a verifica attraverso dei test svolti con l'IHD presso i laboratori MaSTeRLab della Scuola di Ingegneria dell'Università di Bologna.
Resumo:
Lo studio intrapreso si è posto come obiettivo la caratterizzazione dal punto di vista elettrico dei materiali coinvolti nella realizzazione di accessori per applicazioni in HVDC, in particolare mescole isolanti, semiconduttive e varioresistive. La necessità di un lavoro di questo tipo viene giustificata dalla costante espansione dei sistemi in DC nella trasmissione dell’energia elettrica, i quali presentano caratteristiche fisiche che si differenziano sensibilmente da quelle tipiche dei tradizionali sistemi in AC, dunque richiedono componenti e materiali opportunamente progettati per garantire condizioni di servizio sicure e affidabili. L’obiettivo della trattazione consiste nello studio di analogie e differenze tra le proprietà elettriche fornite da prove su diverse configurazioni di provini, nella fattispecie di tipo piano e cilindrico cavo. In primo luogo si studiano i provini di tipo piano al fine di ricavare informazioni basilari sul materiale e sulla mescola che lo costituisce e di prendere decisioni relative al proseguimento dei test. Dopo aver effettuato un sufficiente numero di test su varie tipologie di provini piani e aver riconosciuto le mescole più performanti dal punto di vista elettrico, meccanico e termico, si procede alla realizzazione di provini cilindrici stampati, su cui si intraprendono le medesime misure effettuate per la configurazione piana. Questa seconda fase di caratterizzazione è fondamentale, in quanto consente di verificare che le proprietà già studiate su piastra si conservino in una geometria molto più simile a quella assunta dal prodotto finale evitando di sostenere costi onerosi per la produzione di un accessorio full-size. Il lavoro è stato svolto nel laboratorio elettrico di alta tensione della divisione R&D del gruppo Prysmian di Milano, leader mondiale nella produzione di sistemi in cavo per alte e altissime tensioni.
Resumo:
Il progetto realizzato consiste in uno strumento software in grado di effettuare una conversione di file, dal formato MIDI al formato MusicXML. Il tool è il proseguimento di un’attività basata sull'analisi di reti complesse e sullo sviluppo di strumenti per la modellazione di spartiti musicali. Melodie, assoli ed in generale tracce musicali sono rappresentabili come reti complesse, in cui i nodi identificano le note del brano e gli archi mostrano le sequenze con cui queste vengono suonate. Utilizzando la teoria delle reti è possibile estrarre alcune metriche principali che caratterizzano il brano in questione. Per la generazione della rete si è fatto uso di spartiti musicali descritti tramite lo standard MusicXML. File in questo formato sono difficilmente reperibili, per cui lo strumento realizzato si propone di effettuare una conversione da formato MIDI a formato MusicXML, con l’obiettivo di ottenere un database più esteso. Attraverso il tool sono stati convertiti brani di diverso genere, le cui reti relative sono state poi analizzate applicandovi le metriche principali ed effettuando le dovute valutazioni.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Lo scopo del lavoro è stato progettare una scheda di controllo in grado di concedere una buona flessibilità per il controllo di azionamenti elettrici, capace di interfacciarsi con configurazioni multi-livello, multifase e dual-motor. La progettazione è stata sviluppata con supporto di CAD elettronici commerciali. La scheda presenta tre parti fondamentali. Due unità di controllo identiche per permettere l’interfacciamento con più configurazioni, nelle quali sono realizzate tutte le funzioni di controllo, ed un’unità chiamata PL2 per la rielaborazione dati di tipologia unicamente automobilistica. E’ stato inoltre realizzato l’interfacciamento e l’assemblaggio con altre due schede elettroniche dedite all’attuazione dei segnali di controllo e alla gestione e rielaborazione dei segnali di veicolo.
Resumo:
Il progetto di tesi consiste nella progettazione e nell'implementazione di una applicazione mobile Android nativa per la generazione automatica di itinerari di viaggio in base ad alcuni dati inseriti in input dall'utente. La app è costituita da una serie di activity di raccolta dati in cui viene chiesto all'utente di inserire le sue preferenze in quanto a destinazione, periodo, modalità di viaggio ed altre informazioni. Completata questa fase viene attivato l'algoritmo che genera gli itinerari elaborando i dati raccolti. L'itinerario, che rappresenta il risultato ottenuto dall'algoritmo, è diviso in giorni ed ogni giorno di viaggio contiene i luoghi da visitare in ordine ottimizzato, con la possibilità di usufruire di ulteriori servizi di indicazioni stradali e visualizzazione su mappe. L'intero progetto è stato implementato in Java con l'ambiente di sviluppo Android Studio.
Resumo:
Nel presente lavoro di tesi sono presentati i primi risultati di un nuovo metodo basato sulla pirolisi analitica off-line per l’analisi quali-quantitativa di microplastiche di polistirene in tessuti biologici. I prodotti di pirolisi sono stati intrappolati testando due tecniche di campionamento, estrazione in fase solida (SPE) tramite cartucce adsorbenti e microestrazione in fase solida (SPME) tramite fibra adsorbente, per essere analizzati in gas cromatografia-spettrometria di massa. È stato testato un protocollo di pretrattamento della matrice biologica (digestione alcalina) ed estrazione con toluene prima di applicare la pirolisi analitica. Il pretrattamento della matrice biologica ha portato a dei buoni risultati garantendo un efficiente digestione dei tessuti biologici (> 97%). L’utilizzo del toluene come solvente di estrazione, ha permesso la separazione del polistirene dalla matrice biologica che poteva interferire nelle analisi. La pirolisi del polistirene genera cromatogrammi caratterizzati dalla presenza dello stirene come prodotto principale di degradazione. L’analisi quantitativa è stata condotta utilizzando il metodo dello standard interno e l’area del picco cromatografico dello stirene. Sono state determinate le principali caratteristiche delle tecniche SPE e SPME: precisione, linearità e recuperi. La tecnica SPE, presentando dei recuperi ed un grado di precisione più accettabili, è stata applicata a campioni di tessuti biologici provenienti da esperimenti in vivo di mitili esposti a basse concentrazioni di PS. I risultati delle analisi indicano la presenza di PS nei tessuti dei mitili a livelli del ug/g. Il metodo sviluppato presenta dati promettenti e potenzialità per monitorare l’inquinamento da PS nei tessuti biologici, tuttavia anche dei limiti che richiedono ulteriori indagini e miglioramenti in studi futuri.
Resumo:
L’ingegneria dei tessuti molli, quali il miocardio, sta sempre più emergendo come approccio alternativo alle terapie tradizionali. In questo ambito, i poliesteri costituiscono una classe di polimeri promettente, poiché le variegate strutture chimiche che li caratterizzano permettono di soddisfare un’ampia gamma di esigenze. Negli ultimi anni, l’attenzione della ricerca si è incentrata sul poli(butilene succinato)(PBS). Il PBS, tuttavia, possiede proprietà meccaniche non ottimali per l’ingegneria dei tessuti molli; inoltre i tempi di degradazione sono lunghi; ciò è dovuto al grado di cristallinità e all’idrofobicità, entrambi elevati. Nell’ottica di migliorare le proprietà non soddisfacenti di tale omopolimero, sono stati sintetizzati e caratterizzati nuovi copoliesteri alifatici a base di PBS biocompatibili e biodegradabili. In particolare, sono stati realizzati un copolimero a blocchi e uno statistico a base di Pripol 1009, un diacido commerciale (Croda), e un copolimero a blocchi a base di neopentil glicole, valutando sia l’effetto del tipo di comonomero introdotto nel PBS (Pripol 1009 vs. neopentil glicole) che quello dell’architettura molecolare (copolimero statistico vs. copolimero multiblocco). I materiali sintetizzati sono stati processati in forma di film attraverso pressofusione e di scaffold tramite elettrofilatura. Oltre alla caratterizzazione molecolare, film e scaffold sono stati sottoposti anche ad analisi termica, diffrattometrica, meccanica e a studi di degradazione idrolitica in condizioni fisiologiche. I risultati ottenuti hanno evidenziato la possibilità di modulare sia le proprietà meccaniche che la velocità di degradazione in condizioni fisiologiche. Tutti i copolimeri, infatti, presentano caratteristiche di elastomeri termoplastici e dei profili di degradazione variabili rispetto all’omopolimero, che li rendono adatti per applicazioni nel campo dell’ingegneria dei tessuti molli.
Resumo:
L’obiettivo di questo documento è illustrare quali siano stati i metodi di studio, le soluzioni adottate ed i risultati ottenuti durante la progettazione del sistema di accumulo per il prototipo di motocicletta da corsa elettrica “Alpha Leonis”, con cui la squadra corse dell’Università di Bologna UniBo Motorsport ha partecipato alla V edizione del campionato mondiale studentesco MotoStudent. Inizialmente verrà descritto il contesto della competizione e verranno analizzati i vincoli regolamentari che influiscono sulla realizzazione del componente in oggetto. In seguito verrà mostrata la vera e propria fase di progettazione nella quale, dopo aver effettuato prove di caratterizzazione sulla singola cella, sono stati realizzati gli elementi strutturali ed i sistemi di controllo e monitoraggio. La parola d’ordine in questa fase è “motorsport”, che raccoglie in sé la volontà di creare un componente tecnologicamente all’avanguardia che, oltre a garantire l’autonomia necessaria, ottimizzi il laptime e porti il prototipo in testa alla classifica. È questo il motivo per cui il sistema di accumulo descritto nella seguente trattazione viene definito come “ad alta densità”, ossia con target di energia e potenza per unità di massa superiori alle alternative commerciali attualmente disponibili sul mercato. Infine, per verificare la qualità e l’efficacia del lavoro svolto, verranno descritti i test sul banco a rulli ed in pista che hanno dimostrato il corretto funzionamento del componente e che sono stati sfruttati per completare l’ottimizzazione del sistema di controllo in vista dell’evento finale ad Aragòn Motorland.
Resumo:
I frutti secchi ed i semi commestibili hanno comprovati benefici per la salute, essendo il loro consumo relazionato con la riduzione del rischio di malattie croniche. Tuttavia, questi alimenti hanno un elevato potenziale allergico per una parte della popolazione mondiale. A causa del fatto che le allergie alimentari sono in aumento, diventa importante conoscere tutti i componenti presenti in un alimento, anche se in tracce. Il Regolamento UE n°1169/2011 ha normalizzato le leggi sull’etichettatura delle sostanze che causano allergie ed intolleranze alimentari. Di conseguenza, vi è l'urgente necessità di metodi specifici e affidabili in grado di rilevare allergeni negli alimenti che permettano di garantire la sicurezza alimentare e la conformità delle etichette, migliorando così la vita dei consumatori allergici. Sebbene le tecniche immunologiche siano più specifiche per l’identificazione di proteine allergeniche, le tecniche basate sul DNA sono più adatte per matrici alimentari molto complesse o nel caso di alimenti che hanno subito numerosi processi di trasformazione, mostrandosi come metodi alternativi affidabili. L’obiettivo di questo lavoro di tesi è stato quello di sviluppare una metodica per il rilevamento di specie allergeniche vegetali (frutta a guscio e semi commestibili) in matrici alimentari usando la tecnica del DNA Barcoding e la tecnica della Real-Time PCR. I vantaggi di queste tecniche sono, oltre alla necessità di quantità minime di campione, la possibilità di identificare varie specie allergeniche in simultaneo, anche dopo che queste abbiano subito processi di lavorazione. Si è inoltre fatta un’analisi fingerprinting dei composti volatili su matrici alimentari attraverso il gascromatografo HERACLES II. Le metodiche sviluppate possono fungere come metodi di screening veloci ed affidabili nella riduzione di possibili contaminazioni dei prodotti alimentari, rilevando la presenza o confermando l'assenza di allergeni.
Resumo:
I big data sono caratterizzati dalle ben note 4v: volume, velocità, veracità e varietà. Quest'ultima risulta di importanza critica nei sistemi schema-less, dove il concetto di schema non è rigido. In questo contesto rientrano i database NoSQL, i quali offrono modelli dati diversi dal classico modello dati relazionale, ovvero: documentale, wide-column, grafo e key-value. Si parla di multistore quando ci si riferisce all'uso di database con modelli dati diversi che vengono esposti con un'unica interfaccia di interrogazione, sia per sfruttare caratteristiche di un modello dati che per le maggiori performance dei database NoSQL in contesti distribuiti. Fare analisi sui dati all'interno di un multistore risulta molto più complesso: i dati devono essere integrati e va ripristinata la consistenza. A questo scopo nasce la necessità di approcci più soft, chiamati pay-as-you-go: l'integrazione è leggera e incrementale, aggira la complessità degli approcci di integrazione tradizionali e restituisce risposte best-effort o approssimative. Seguendo tale filosofia, nasce il concetto di dataspace come rappresentazione logica e di alto livello dei dataset disponibili. Obiettivo di questo lavoro tesi è studiare, progettare e realizzare una modalità di interrogazione delle sorgenti dati eterogenee in contesto multistore con l'intento di fare analisi situazionali, considerando le problematiche di varietà e appoggiandosi all'integrazione fornita dal dataspace. Lo scopo finale è di sviluppare un prototipo che esponga un'interfaccia per interrogare il dataspace con la semantica GPSJ, ovvero la classe di query più comune nelle applicazioni OLAP. Un'interrogazione nel dataspace dovrà essere tradotta in una serie di interrogazioni nelle sorgenti e, attraverso un livello middleware, i risultati parziali dovranno essere integrati tra loro in modo che il risultato dell'interrogazione sia corretto e allo stesso tempo completo.
Resumo:
In questa tesi si è cercato di trovare le soluzioni più efficaci a supporto delle questioni legate all'ipertensione di seguito descritte attraverso l'uso di tecniche riguardanti l'intelligenza artificiale e l'Internet of Things. Uno tra i compiti dei medici che si occupano di curare i malati di ipertensione è quello di elaborare protocolli per quanto riguarda la prevenzione e la cura di questa malattia, i quali vengono periodicamente aggiornati. Per supportare ciò, il primo progetto sviluppato è consistito in un'analisi dei dati sul dataset ottenuto a partire dall'elaborazione delle risposte date ai questionari che sono stati distribuiti durante la Giornata Mondiale dell'Ipertensione. A partire da questo, si è cercato di evidenziare la classe di persone che con più probabilità sono malate di ipertensione in modo tale che le linee guida aggiornate si concentrino maggiormente su costoro. La seconda questione affrontata è che non sempre le cure che vengono prescritte sono efficaci, talvolta a causa del medico, talvolta a causa del paziente. Si rende perciò necessario fornire ai pazienti degli strumenti che li aiutino direttamente nella cura della loro malattia. Devono avere anche lo scopo di aiutare il medico nel suo lavoro di monitoraggio periodico delle condizioni di salute del paziente, perché possa avere realmente il polso della situazione. Per fare questo, il secondo progetto ha riguardato lo sviluppo di un chatbot disponibile sulla piattaforma di messaggistica istantanea Telegram ad uso dei malati di ipertensione. Questo assistente virtuale permette loro di registrare le misurazioni di pressione che settimanalmente devono effettuare e ricorda loro di farlo quando passa troppo tempo dall'ultima misurazione. Il sistema permette inoltre di visualizzare medie e grafici delle misurazioni che sono state raccolte cosicché il medico può affidarsi ad uno strumento più evoluto del semplice libretto diario in cui il paziente annota tutte le misurazioni.
Resumo:
Lo scopo di questa tesi è quello di verificare il corretto dimensionamento dei cuscinetti e delle guide lineari di un gruppo all’interno di una macchina automatica brevettata e realizzata da Manz Srl, azienda in collaborazione con la quale è stato svolto il progetto. La macchina automatica in esame è parte di una linea di produzione di batterie rettangolari a partire da nastri di materia prima e impiega l’innovativo processo di wound stacking. Per eseguire la verifica dei componenti è stato necessario effettuare una simulazione dinamica con il software MSC Adams, grazie al quale si sono potute calcolare le reazioni vincolari. In parallelo al modello Adams, è stato realizzato anche un modello MATLAB, con cui poter confrontare i risultati del software multibody per validarli. Stabiliti i periodi previsti di manutenzione della linea e un coefficiente di sicurezza richiesto, si sono individuati i componenti che non rispettavano le specifiche dei progettisti. Alla fine della tesi si propongono anche delle soluzioni per la sostituzione di alcuni componenti.
Resumo:
Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.
Resumo:
In questo lavoro, sono state valutate le prestazioni di quattro tipi di LDH (Co/Al e Co/Fe entrambe con e senza GO nella soluzione di elettrodeposizione) per l'applicazione in stoccaggio di energia, andando a confrontare le capacità specifiche calcolate da voltammetrie cicliche e curve galvanostatiche di carica/scarica. I risultati di tali analisi hanno mostrato come l’LDH a base di Al sia più adatto all’applicazione di accumulo di energia, rispetto a quello con il Fe. Ulteriori caratterizzazioni, come l’XRD ed il SEM accoppiato con l'EDX, hanno confermato la maggior applicabilità dei LDH di Co/Al rispetto a quelli di Co/Fe, in quanto i primi presentano: una struttura più cristallina, una morfologia più uniforme ed un’intercalazione dell’ERGO migliore. Dopo la fase di scelta dell’LDH più performante ci si è dedicati alla caratterizzazione di un capacitore ibrido operante in fase liquida. Concluse le analisi, si è notato come l’ERGO porti all'aumento delle prestazioni del sistema (risultato in linea con quello riscontrato tramite lo studio degli LDH come componenti catodici singoli). Grazie allo studio delle performance a lungo termine è stato possibile verificare come l’ERGO aumenti la stabilità del sistema quando si sottopone quest’ultimo a stress protratto nel tempo. Successivamente, si è proseguito con lo studio di un capacitore ibrido operante in fase solida. Come nel caso del sistema in fase liquida, si è riscontrato un aumento di performance dovuto alla presenza di ERGO nella struttura finale degli LDH.