954 resultados para Test accelerati a fatica, diagramma di Wohler, kurtosis, Papoulis
Resumo:
Con questo lavoro si studia l'argomento della dimensione di un insieme parzialmente ordinato P, introdotta nel 1941 da Dushnik e Miller, tramite diagrammi di Hasse, in modo da avere una visione geometrica di un concetto algebrico. Il Teorema di Szpilrajn permette di linearizzare un qualsiasi insieme parzialmente ordinato P: questo anticipa la definizione di dimensione, siccome tutte le linearizzazioni sono realizzatori: le loro coppie comuni sono presenti anche in P. La dimensione viene definita come il minimo numero cardinale m di realizzatori per P. Vengono rivisti alcuni dei risultati già pubblicati da M. Barnabei, F. Bonetti e R. Pirastu e ripresi da M. Silimbani nella sua Tesi di Dottorato: ci si concentra sulla dimensione 2 in cui può essere definito un etichettamento doppio, che si può utilizzare per avere un algoritmo poco costoso atto a sapere se un insieme parzialmente ordinato ha dimensione 2 : esso pone le basi per una corrispondenza biunivoca tra un insieme parzialmente ordinato di cardinalità n dotato di un etichettamento doppio e l'insieme delle permutazioni su n elementi. Infine viene spiegato un altro modo per scoprire se un insieme parzialmente ordinato P ha dimensione al massimo 2 servendosi del solo diagramma di Hasse: ciò succede se e solo se il grafo di inconfrontabilità di P ammette un orientamento transitivo.
Resumo:
Il lavoro svolto è stato commissionato dall’azienda CNI, la quale ha richiesto al Dipartimento di Fisica e Astronomia dell’università di Bologna la costruzione di una camera iperspettrale per uso industriale. In questo elaborato sono descritte le tecniche di progettazione e realizzazione dell’apparato ottico, adatto ad indagare lunghezze d’onda nel range visibile. Questo apparato è composto da un obiettivo focalizzatore, uno spettroscopio e un sensore finale. La realizzazione pratica dello strumento è stata raggiunta attraverso tre fasi distinte: la calibrazione, l’assemblaggio e i test finali; ciò ha permesso di ottenere risultati in accordo con quelli previsti in fase di progettazione. Poiché i risultati ottenuti si sono rivelati conformi alle richieste dell’azienda, si è potuto procedere all’applicazione di una particolare copertura della camera iperspettrale. Questo procedimento di copertura e chiusura della camera è stato necessario sia per permettere all’azienda di svolgere test con lo spettroscopio in condizioni di elevata oscurità, sia per preservare i vari elementi ottici da movimenti meccanici esterni. Terminato così il lavoro, è stata consegnata all’azienda la camera chiusa. Essa sarà testata per l’analisi spettrale di campioni, che passano attraverso una linea illuminata di lunghezza 1 m e ad una distanza di 1,5 m, su un rullo autotrasportatore. In futuro è prevista anche la realizzazione di un’altra camera iperspettrale che indaghi le lunghezze d’onda nel vicino infrarosso.
Resumo:
Il lavoro svolto in questa tesi fa parte di un progetto volto alla realizzazione di un sistema per svolgere test di guida di motoveicoli al banco a rulli, gestendo l’intera prova in remoto, ossia dall’esterno della cella. Tale sistema, denominato RideIT, è stato progettato da Alma Automotive per conto della nota casa motociclistica MV Augusta. Tramite il sistema RideIT, è possibile automatizzare la guida di motoveicoli sul banco a rulli, riproducendo via software, tramite un modello che governa degli attuatori, il comportamento del pilota per quel che riguarda gli azionamenti di acceleratore, frizione, cambio e freno durante un test. I vantaggi di questa soluzione riguardano soprattutto la sicurezza degli addetti, che possono effettuare tutte le prove del caso rimanendo al di fuori della sala prove, oltre alla possibilità di incrementare la ripetibilità e la riproducibilità dei risultati dei test, grazie all’eliminazione del fattore di soggettività legato al guidatore. Il sistema nasce con la specifica di poter eseguire test di omologazione al banco a rulli anche se, grazie alla flessibilità che è in grado di garantire, può essere perfettamente riconfigurato, anche in vista di futuri sviluppi del progetto.
Resumo:
Questa Tesi di Laurea si prefigge gli obiettivi di riuscire a caratterizzare i Sensori Hall e di testare un Sensore Hall di Asahi-Kasei, il CQ-3300, di cui l’Università di Bologna è in possesso. Per questa ragione si può dividere il processo di realizzazione della tesi in 2 fasi ben distinte: • Una prima fase dedicata interamente allo studio dell’argomento e alla ricerca online di Sensori Hall presenti sul mercato. Si è dunque approfondito il fenomeno fisico su cui essi basano il proprio funzionamento, le loro caratteristiche principali e le loro applicazioni. Se ne sono poi scelti due, oltre al CQ-3300, tra quelli presenti sul mercato per poterli caratterizzare e confrontare con il suddetto. • Una seconda fase dedicata ai test sul Sensore nel laboratorio di elettronica. Durante questa fase è stato montato su PCB (Printed Circuit Board) il sensore Hall CQ-3300 e sono stati realizzati dei circuiti di prova con lo scopo di verificare il corretto funzionamento del Sensore e l’effettiva banda di funzionamento. I tests in corrente alternata sono stati effettuati grazie all’ausilio di un generatore di corrente in grado di convertire un segnale in tensione in un segnale in corrente. Questo generatore di corrente però non può erogare un segnale in corrente di ampiezza maggiore a 1 Ampere, ragione per cui si è preferito tenersi alla larga da tale valore. L’Università di Bologna ritiene necessario testare questo sensore in termini di banda, in quanto ha progettato un Sensore Hall dalle caratteristiche simili in termini di banda di lavoro al componente in questione, il che rende importante capire se quest’ultimo tiene fede alla banda di lavoro che viene indicata sul suo datasheet, ovvero 1 MHz.
Resumo:
Elaborato di tesi con lo scopo principale di creare una scheda di test migliorata per la caratterizzazione di sistemi di misura di corrente su sensori a Effetto Hall.
Resumo:
Questo studio è mirato ad analizzare ed ottimizzare il consumo dei reagenti solidi impiegati da uno stabilimento di termovalorizzazione di rifiuti solidi urbani e speciali (Silea S.p.A, presso Valmadrera (LC)), per abbattere le correnti acide trattate nelle due linee fumi multistadio. Dopo aver scelto quale delle due linee prendere come riferimento, per poi riportare i risultati ottenuti anche sull’altra con opportune correzioni, il lavoro è stato condotto in diverse fasi, e affiancato da un costante confronto diretto con gli ingegneri e i tecnici dello stabilimento. Una volta preso atto delle normali condizioni di funzionamento dell’impianto, si è proceduto all’esecuzione di test, mirati a quantificare l’efficienza di rimozione dell’acido cloridrico, da parte del bicarbonato di sodio e dell’innovativo sorbente dolomitico, brevettato sotto il nome: Depurcal® MG. I test sono stati suddivisi in giornate differenti in base al tipo di reattivo da analizzare (e quindi lo stadio) e programmati in modo che permettessero di correlare la conversione dell’HCl alla portata di reagente solido introdotto. Una volta raccolti i dati, essi sono stati elaborati e filtrati in base a criteri oggettivi, per poi essere analizzati con senso critico, fornendo un quadro completo sulla reale potenzialità dell’impianto. Attraverso l’utilizzo di un opportuno modello è stato possibile caratterizzarlo e individuare la migliore condizione economico-operativa per ognuno dei possibili scenari individuati.
Resumo:
In questa tesi presentiamo una strategia, e la relativa implementazione, per il problema dell’allocazione e schedulazione, su risorse unarie, di applicazioni multi-task periodiche, composte da attività che interagiscono fra loro e la cui durata è incerta. Lo scopo che ci si propone di raggiungere, è l’implementazione di una strategia di allocazione schedulazione che garantisca robustezza ed efficienza, in quei contesti in cui la conoscenza a priori è limitata e in cui le applicazioni si ripetono indefinitamente nel tempo. Per raggiungere questo scopo, sarà usato un approccio ibrido fra statico e dinamico. Staticamente è generata una soluzione del problema, sfruttando la programmazione a vincoli, in cui le durate delle attività sono arbitrariamente fissate. Questa soluzione, non rappresenta la soluzione del nostro problema, ma è utilizzata per generare un ordinamento delle attività, che compongono le applicazioni periodiche. Dinamicamente, sfruttando l’ordinamento ottenuto, è effettuata l’allocazione e la schedulazione effettiva delle applicazioni periodiche, considerando durate variabili per le attività. L’efficienza ottenuta applicando il nostro approccio è valutata effettuando test su una vasta gamma di istanze, sia industriali, sia sintetiche appositamente generate. I risultati sono confrontati con quelli ottenuti, per le stesse istanze, applicando un approccio puramente statico. Come si vedrà, in alcuni casi, è possibile anche quadruplicale la velocità di completamento delle applicazioni trattate.
Resumo:
La presente tesi è suddivisa in due parti: nella prima parte illustriamo le definizioni e i relativi risultati della teoria delle tabelle di Young, introdotte per la prima volta nel 1900 da Alfred Young; mentre, nella seconda parte, diamo la nozione di numeri Euleriani e di Polinomi Euleriani. Nel primo capitolo abbiamo introdotto i concetti di diagramma di Young e di tabelle di Young standard. Inoltre, abbiamo fornito la formula degli uncini per contare le tabelle di Young della stessa forma. Il primo capitolo è focalizzato sul teorema di Robinson-Schensted, che stabilisce una corrispondenza biunivoca tra le permutazioni di Sn e le coppie di tabelle di Young standard della stessa forma. Ne deriva un'importante conseguenza che consiste nel poter trovare in modo efficiente la massima sottosequenza crescente di una permutazione. Una volta definite le operazioni di evacuazione e "le jeu de taquin" relative alle tabelle di Young, illustriamo una serie di risultati riferibili alla corrispondenza biunivoca R-S che variano in base alla permutazione che prendiamo in considerazione. In particolare, enunciamo il teorema di simmetria di M.P.Schüztenberger, che dimostriamo attraverso la costruzione geometrica di Viennot. Nel secondo capitolo, dopo aver dato la definizione di discesa di una permutazione, descriviamo altre conseguenze della corrispondenza biunivoca R-S: vediamo così che esiste una relazione tra le discese di una permutazione e la coppia di tabelle di Young associata. Abbiamo trattato approfonditamente i numeri Euleriani, indicati con A(n,k) = ]{σ ∈ Sn;d(σ) = k}, dove d(σ) indica il numero di discese di una permutazione. Descriviamo le loro proprietà e simmetrie e vediamo che sono i coefficienti di particolari polinomi, detti Polinomi Euleriani. Infine, attraverso la nozione di eccedenza di una permutazione e la descrizione della mappa di Foata arriviamo a dimostrare un importante risultato: A(n,k) conta anche il numero di permutazioni di Sn con k eccedenze.
Resumo:
Questo lavoro di tesi si inserisce all’interno del progetto di ricerca LAUPER in cui sono coinvolte le sezioni INFN di Ferrara e Bologna. Il progetto LAUPER, acronimo per LAUe-PEak Radiotherapy, ha come scopo lo studio di fattibilità di un prototipo di lente di Laue in grado di focalizzare fasci di raggi X con energie dell’ordine di 100 keV per possibili applicazioni in ambito radioterapico. Sfruttando fasci di raggi X, caratterizzati da energie inferiori a quelle che contraddistinguono le usuali tecniche radioterapiche e focalizzati mediante una lente di Laue, si cerca di ottimizzare il rapporto fra la dose sul target tumorale e la dose sui tessuti sani. Questa tesi, nello specifico, descrive i dati ottenuti dai primi test effettuati con due prototipi di lente di Laue, caratterizzati da un differente numero di cristalli e da una loro diversa disposizione sulla lente. Dall’analisi delle misure effettuate si evince come effettivamente i prototipi siano in grado di focalizzare fasci di raggi X con energie dell’ordine di 100 keV. Tuttavia uno dei due prototipi ha evidenziato delle problematiche relative alla diffrazione causata dalla struttura di supporto dei cristalli, che non è stato possibile schermare adeguatamente. I prossimi passi del progetto LAUPER consistono quindi nella risoluzione di questo problema con la realizzazione di nuovi prototipi, caratterizzati da un diverso tipo di supporto. Con quest’ultimi verranno anche effettuati test dosimetrici in modo da costruire le curve di dose in funzione della profondità in materiali tessuto-equivalenti.
Resumo:
Questa tesi analizza un prototipo di riduttore epicicloidale compatto per applicazioni robotiche, tramite test sperimentali e simulazioni virtuali di calcolo agli elementi finiti, utilizzando il software Ansys. La tesi presenta inoltre una breve introduzione ai rotismi ed in particolare ai riduttori epicicloidali, le loro applicazioni e i principali parametri che interessano il loro sviluppo tecnologico.
Resumo:
Nell'elaborato, dopo una breve descrizione di come vengono suddivise le macchine elettriche a seconda che vi siano o meno parti in movimento al loro interno, vengono esaminati inizialmente gli aspetti teorici che riguardano le macchine sincrone a poli lisci ed a poli salienti prendendo in esame anche quelli che sono i provvedimenti necessari a ridurre il contributo dei campi armonici di ordine superiore. Per questo tipo di macchine, spesso utilizzate in centrale per la pruduzione dell'energia elettrica, risultano di fondamentale importanza le curve a "V" e le curve di "Capability". Esse sono strumenti che permettono di valutare le prestazioni di tali macchine una volta che siano noti i dati di targa delle stesse. Lo scopo della tesi è pertanto quello di sviluppare un software in ambiente Matlab che permetta il calcolo automatico e parametrico di tali curve al fine di poter ottimizzare la scelta di una macchina a seconda delle esigenze. Nel corso dell'eleaborato vengono altresì proposti dei confronti su come varino tali curve, e pertanto i limiti di funzionamento ad esse associati, al variare di alcuni parametri fondamentali come il fattore di potenza, la reattanza sincrona o, nel caso di macchine a poli salienti, il rapporto di riluttanza. Le curve di cui sopra sono state costruite a partire da considerazioni fatte sul diagramma di Behn-Eschemburg per le macchine isotrope o sul diagramma di Arnold e Blondel per le macchine anisotrope.
Resumo:
A new method for the evaluation of the efficiency of parabolic trough collectors, called Rapid Test Method, is investigated at the Solar Institut Jülich. The basic concept is to carry out measurements under stagnation conditions. This allows a fast and inexpensive process due to the fact that no working fluid is required. With this approach, the temperature reached by the inner wall of the receiver is assumed to be the stagnation temperature and hence the average temperature inside the collector. This leads to a systematic error which can be rectified through the introduction of a correction factor. A model of the collector is simulated with COMSOL Multipyisics to study the size of the correction factor depending on collector geometry and working conditions. The resulting values are compared with experimental data obtained at a test rig at the Solar Institut Jülich. These results do not match with the simulated ones. Consequentially, it was not pos-sible to verify the model. The reliability of both the model with COMSOL Multiphysics and of the measurements are analysed. The influence of the correction factor on the rapid test method is also studied, as well as the possibility of neglecting it by measuring the receiver’s inner wall temperature where it receives the least amount of solar rays. The last two chapters analyse the specific heat capacity as a function of pressure and tem-perature and present some considerations about the uncertainties on the efficiency curve obtained with the Rapid Test Method.
Resumo:
In questo studio sono state prodotte 5 diverse tipologie di Squacquerone inoculate con St. thermophilus e con batteri lattici funzionali in forma planctonica o microincapsulata al fine di garantire la loro sopravvivenza, in ambienti caratterizzati da condizioni chimico-fisiche proibitive. Sono stati utilizzati Lb. crispatus BC4 e Lb. paracasei A13 caratterizzati da comprovata attività anti-Candida e battericida o probiotica, rispettivamente. I campioni sono stati caratterizzati a livello microbiologico, chimico-fisico, reologico, proteolitico ed organolettico durante la maturazione/conservazione a 4°C. I dati hanno dimostrato che l’incapsulazione non ha inciso sulla sopravvivenza dei ceppi funzionali in quanto la loro concentrazione è sempre stata costante. La proteolisi ha dimostrato un’evidente relazione tra il ceppo e le modalità della sua immissione nel prodotto: in presenza dei co-starter non incapsulati i processi litici sono accelerati rispetto al campione di controllo, mentre la cinetica di proteolisi viene influenzata negativamente dalle microcapsule. I campioni funzionali, dopo 4 giorni, sono risultati nettamente più apprezzati a livello sensoriale, indipendentemente dal tipo di inclusione dei microrganismi. A fine shelf-life i 5 Squacqueroni sono invece molto più simili tra loro. Di conseguenza, la microincapsulazione può essere vista come uno strumento per modulare le cinetiche di maturazione dello Squacquerone e il momento di immissione di questo sul mercato, per estendere la sua shelf-life ed allargare i mercati. In conclusione sia l’addizione dei co-starter in forma planctonica, che in forma microincapsulata con St. thermophilus, hanno permesso di produrre quattro diversi Squacqueroni identificabili come alimenti funzionali caratterizzati da specifici patterns proteolitici e organolettici. La microincapsulazione e la selezione dei ceppi sono da considerarsi strumenti utili alla innovazione e alla differenziazione dei prodotti lattiero-caseari.
Resumo:
This paper considers likelihood-based inference for the family of power distributions. Widely applicable results are presented which can be used to conduct inference for all three parameters of the general location-scale extension of the family. More specific results are given for the special case of the power normal model. The analysis of a large data set, formed from density measurements for a certain type of pollen, illustrates the application of the family and the results for likelihood-based inference. Throughout, comparisons are made with analogous results for the direct parametrisation of the skew-normal distribution.
Resumo:
Questo documento descrive gran parte del lavoro svolto durante un periodo di studio di sei mesi all’International Centre for Geohazards (ICG) di Oslo. Seguendo la linea guida dettata nel titolo, sono stati affrontati diversi aspetti riguardanti la modellazione numerica dei pendii quali l’influenza delle condizioni al contorno e delle proporzioni del modello, la back-analysis di eventi di scivolamento e l’applicazione delle analisi di stabilità monodimensionali. La realizzazione di semplici modelli con il programma agli elementi finiti PLAXIS (Brinkgreve et al., 2008) ha consentito di analizzare le prestazioni dei modelli numerici riguardo all’influenza delle condizioni al contorno confrontandoli con un calcolo teorico del fattore di amplificazione. Questa serie di test ha consentito di stabilire alcune linee guida per la realizzazione di test con un buon livello di affidabilità. Alcuni case-history, in particolare quello di Las Colinas (El Salvador), sono stati modellati allo scopo di applicare e verificare i risultati ottenuti con i semplici modelli sopracitati. Inoltre sono state svolte analisi di sensitività alla dimensione della mesh e ai parametri di smorzamento e di elasticità. I risultati hanno evidenziato una forte dipendenza dei risultati dai parametri di smorzamento, rilevando l’importanza di una corretta valutazione di questa grandezza. In ultima battuta ci si è occupati dell’accuratezza e dell’applicabilità dei modelli monodimensionali. I risultati di alcuni modelli monodimensionali realizzati con il software Quiver (Kaynia, 2009) sono stati confrontati con quelli ottenuti da modelli bidimensionali. Dal confronto è risultato un buon grado di approssimazione accompagnato da un margine di sicurezza costante. Le analisi monodimensionali sono poi state utilizzate per la verifica di sensitività. I risultati di questo lavoro sono qui presentati e accompagnati da suggerimenti qualitativi e quantitativi per la realizzazione di modelli bidimensionali affidabili. Inoltre si descrive la possibilità di utilizzare modelli monodimensionali in caso d’incertezze sui parametri. Dai risultati osservati emerge la possibilità di ottenere un risparmio di tempo nella realizzazione di importanti indagini di sensitività.