383 resultados para Test accelerati a fatica, diagramma di Wohler, kurtosis, Papoulis
Analisi e sviluppo di un applicativo software per il testing automatico di elaborati in linguaggio c
Resumo:
Analisi e sviluppo di uno script PHP per il testing automatico di elaborati in linguaggio c
Resumo:
Questo lavoro di ricerca tratta di due modelli di arbitraggio: il pair trading e il market making. I modelli sono affrontati attraverso una trattazione teorica ed una serie di test
Resumo:
The goal of this thesis was the study of the cement-bone interface in the tibial component of a cemented total knee prosthesis. One of the things you can see in specimens after in vivo service is that resorption of bone occurs in the interdigitated region between bone and cement. A stress shielding effect was investigated as a cause to explain bone resorption. Stress shielding occurs when bone is loaded less than physiological and therefore it starts remodeling according to the new loading conditions. µCT images were used to obtain 3D models of the bone and cement structure and a Finite Element Analysis was used to simulate different kind of loads. Resorption was also simulated by performing erosion operations in the interdigitated bone region. Finally, 4 models were simulated: bone (trabecular), bone with cement, and two models of bone with cement after progressive erosions of the bone. Compression, tension and shear test were simulated for each model in displacement-control until 2% of strain. The results show how the principal strain and Von Mises stress decrease after adding the cement on the structure and after the erosion operations. These results show that a stress shielding effect does occur and rises after resorption starts.
Resumo:
I processi microbiologici rivestono una grande importanza nello sviluppo di combustibili e sostanze chimiche da fonti rinnovabili (biomassa), quali: il biometano e le bioplastiche, come i poli(idrossialcanoati), PHA. I PHA sono poliesteri ottenuti per condensazione di 3-idrossiacidi, il più comune dei quali è il poli(3-idrossibutirrato, PHB). Gli alti costi di produzione del PHA da colture microbiche singole ha portato a valutare nuove strategie, tra cui l’utilizzo di colture microbiche miste (MMC) e substrati di scarto. Il bio-olio ottenuto dalla pirolisi di biomassa potrebbe essere un substrato interessante per la produzione di biogas e PHA. Gli acidi a catena corta (acidi grassi volatili, VFA), infatti, sono i prodotti intermedi nella produzione sia di biogas che di PHA. L’analisi di questi ultimi viene normalmente effettuata tramite GC-FID o GC-MS. La degradazione termica (pirolisi, Py) di PHA produce acidi alchenoici caratteristici, come l’acido crotonico. Il metodo tradizionale per la determinazione del PHA è la metanolisi seguita da un’analisi GC-MS, una procedura laboriosa con uso di solventi clorurati e sostanze corrosive. Lo scopo principale di questa tesi è stato quello di sviluppare un nuovo metodo di analisi dei PHA. Il metodo studiato si basa sulla pirolisi diretta della biomassa e determinazione degli acidi alchenoici prodotti dalla degradazione del PHA in GC-FID. La pirolisi analitica è stata studiata tramite analisi di polimeri puri (per la calibrazione) e poi è stata applicata a campioni batterici derivanti da MMC e a ceppi selezionati. Il confronto con il metodo convenzionale ha dimostrato che la Py/GC-FID è un metodo valido per l’identificazione dei PHA e per la loro quantificazione nelle matrici batteriche. Il pre-trattamento del campione è minimo e non richiede l’uso di solventi e reagenti chimici. Inoltre, è stata applicata una tecnica di analisi dei VFA nei test di biometanazione basata sull’estrazione con una microquantità di dimetilcarbonato.
Resumo:
In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.
Resumo:
Tesi svolta in collaborazione con Officine Maccaferri S.p.A e con il LIDR (Laboratorio di Ingegneria Idraulica) dell’Università di Bologna. Descrive caratteristiche tecniche di condotte in acciaio, polietilene ad alta densità (PEAD) e resina poliestere rinforzata con fibre di vetro (PRFV), evidenziando vantaggi/svantaggi del loro impiego. Fornisce una descrizione delle modalità di posa delle condotte in relazione ai fattori che condizionano la scelta della tecnica più idonea. Affronta il problema della stabilizzazione e protezione delle condotte soggette all’azione idrodinamica di onde e correnti nelle zona sotto costa e a possibili fattori di rischio esterni. Descrive tecniche di protezione delle condotte sottomarine: interramento (trenching), ricoprimento con materiale roccioso (rock dumping), stabilizzazione con elementi puntuali di appesantimento (concrete collars).Sono descritte le soluzioni di protezione offerte da Officine Maccaferri: materassi articolati in blocchi di calcestruzzo (ACBM) e materassi in geotessuto riempiti di materiale bituminoso (SARMAC). Essi vengono posati sopra la condotta, in posizione longitudinale o trasversale al suo asse, e hanno duplice scopo: (i) incrementarne il peso e la stabilità ai carichi idrodinamici esercitati da onde e correnti e (ii) proteggere la condotta da urti. Partendo dai risultati del modello sperimentale descritto in Gaeta et al. (2012) che evidenziano problemi di erosione localizzata intorno a condotta posata su fondale mobile protetta con materasso ACBM dovuti alla discontinuità materiale del mezzo si valuta, attraverso uno studio numerico, la opportunità di modificare il materasso, ponendo sotto i blocchetti un geotessile. Utilizzando un modello numerico, COBRAS, per la simulazione 2DV del campo idrodinamico si analizza l’effetto di smorzamento del campo di velocità e di vorticità indotto dall’aggiunta del geotessuto simulato come mezzo poroso. I dati sono stati elaborati con MATLAB per ricavare le mappature attorno alla condotta. I test numerici riguardano 3 configurazioni: SARMAC, ACBM, GEO (ACBM+Geotessuto) poggiate su una condotta di diametro costante e sono state analizzate per 2 condizioni di onde regolari di diversa altezza e periodo. Dagli studi emerge che, per casi di condotta posata su fondo mobile, si consiglia l’utilizzo di materassi SARMAC o materassi ACBM modificati con aggiunta di geotessuto. Inoltre il geotessuto svolge anche funzione filtrante, per cui permette il passaggio dell’acqua ma allo stesso tempo trattiene il materiale solido movimentato, senza pericolo di erosione. La presenza dello strato di geotessile non incide sui parametri caratteristici di stabilità globale del materasso ACBM. Si è compiuta un’analisi comparativa tra SARMAC e ACBM per valutare la convenienza delle due soluzioni. Si propone un esempio di dimensionamento nel caso di protezione di un cavo sottomarino comparando caratteristiche tecniche dei materassi SARMAC e ACBM senza geotessile e facendo valutazioni economiche di massima da cui emerge la maggiore convenienza dei materassi ACBM.
Resumo:
L’obbiettivo di questa tesi è ottenere un modello agli elementi finiti che simuli la prova a compressione su un campione di materiale composito a matrice polimerica rinforzata con fibre di carbonio unidirezionali (UD), mediante l’utilizzo di una attrezzatura denominata Combined Loading Compression (CLC) Test Fixture. Il programma utilizzato per realizzare il modello agli elementi finiti è Abaqus della Simulia. Il materiale oggetto dello studio è un prepreg UD di interesse nel settore automobilistico, e fa seguito ad una campagna di prove sperimentali (caratterizzazione a compressione) svolta nei laboratori ENEA di Faenza, dove opera l’Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF).
Resumo:
Generic object recognition is an important function of the human visual system and everybody finds it highly useful in their everyday life. For an artificial vision system it is a really hard, complex and challenging task because instances of the same object category can generate very different images, depending of different variables such as illumination conditions, the pose of an object, the viewpoint of the camera, partial occlusions, and unrelated background clutter. The purpose of this thesis is to develop a system that is able to classify objects in 2D images based on the context, and identify to which category the object belongs to. Given an image, the system can classify it and decide the correct categorie of the object. Furthermore the objective of this thesis is also to test the performance and the precision of different supervised Machine Learning algorithms in this specific task of object image categorization. Through different experiments the implemented application reveals good categorization performances despite the difficulty of the problem. However this project is open to future improvement; it is possible to implement new algorithms that has not been invented yet or using other techniques to extract features to make the system more reliable. This application can be installed inside an embedded system and after trained (performed outside the system), so it can become able to classify objects in a real-time. The information given from a 3D stereocamera, developed inside the department of Computer Engineering of the University of Bologna, can be used to improve the accuracy of the classification task. The idea is to segment a single object in a scene using the depth given from a stereocamera and in this way make the classification more accurate.
Resumo:
Lo scopo della presente tesi è la riprogettazione di un cogeneratore solare a concetrazione. Dai test sul campo della precedente versione erano emerse criticità costruttive che pregiudicavano la prestazione dell'impianto. Dopo aver calcolato le forze agenti sul cogeneratore, si è andato a disegnare, dimensionare e produrre in officina la nuova versione del cogeneratore.
Resumo:
La simulazione realistica del movimento di pedoni riveste una notevole importanza nei mondi dell'architettonica e della sicurezza (si pensi ad esempio all'evacuazione di ambienti), nell'industria dell'entertainment e in molti altri ambiti, importanza che è aumentata negli ultimi anni. Obiettivo di questo lavoro è l'analisi di un modello di pedone esistente e l'applicazione ad esso di algoritmi di guida, l'implementazione di un modello più realistico e la realizzazione di simulazioni con particolare attenzione alla scalabilità. Per la simulazione è stato utilizzato il framework Alchemist, sviluppato all'interno del laboratorio di ricerca APICe, realizzando inoltre alcune estensioni che potranno essere inglobate nel pacchetto di distribuzione del sistema stesso. I test effettuati sugli algoritmi presi in esame evidenziano un buon guadagno in termini di tempo in ambienti affollati e il nuovo modello di pedone risulta avere un maggiore realismo rispetto a quello già esistente, oltre a superarne alcuni limiti evidenziati durante i test e ad essere facilmente estensibile.
Resumo:
La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.
Resumo:
Si riporta inizialmente un’analisi tecnica dell’autopilota Ardupilot, utilizzato con il firmware Arduplane, che predispone la scheda all’utilizzo specifico su velivoli senza pilota ad ala fissa. La parte sostanziale della tesi riguarda invece lo studio delle leggi di controllo implementate su Arduplane e la loro modellazione, assieme ad altre parti del codice, in ambiente Matlab Simulink. Il sistema di controllo creato, chiamato Attitude Flight System, viene verificato con la tecnica del Software In the Loop in un simulatore di volo virtuale modellato anch’esso in Simulink, si utilizza la dinamica di un velivolo UAV di prova e il software FlightGear per l’ambiente grafico. Di fondamentale importanza è la verifica della compatibilità fra il firmware originale e il codice generato a partire dai modelli Simulink, verifica effettuata mediante test di tipo Hardware in the Loop. L’ultima parte della tesi descrive le prove di volo svolte per verificare le prestazioni della scheda su un aeromodello trainer.
Resumo:
In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.
Resumo:
Lo scopo della tesi è verificare se esiste nell’uomo una correlazione tra le velocità preferite di corsa\cammino e i parametri antropometrici, e inoltre dare un significato ai segnali acquisiti dall’analisi del passo tramite uno strumento in fase di sviluppo. Sono stati reclutati 20 soggetti mediamente allenati e suddivisi equamente per sesso. I soggetti sono stati sottoposti ad un protocollo di test motori su treadmill diviso in due parti. I dati del primo test sono stati acquisiti manualmente mentre i dati del secondo test sono stati acquisiti da uno strumento e inviati a remoto. L’elaborazione dei risultati di entrambi i test è stata effettuata utilizzando i software Microsoft Excell e Matlab R2010a. Dai dati è emerso un trend significativo per le velocità di corsa in funzione delle altezze, ma non per quelle di cammino. Per le seconde è stata invece riscontrata una netta differenza tra soggetti maschili e femminili che ha portato a classificare i due sessi separatamente. I parametri riguardanti l’analisi del passo del secondo test sono risultati qualitativamente accettabili e confrontabili con la letteratura, ma sarà necessaria una futura validazione sperimentale per la conferma scientifica.
Resumo:
La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.