399 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rotture a fatica dei componenti sono dovute principalmente alle tensioni di trazione generate da carichi ciclici e variabili nel tempo. Le cricche causate da questo tipo di tensioni possono propagarsi e crescere fino a causare danni catastrofici nel componente. La fatica costituisce uno dei fattori principali di rottura delle strutture aeronautiche; in campo aeronautico sono quindi molto diffusi dei trattamenti superficiali che permettono di indurre tensioni di compressione che contrastano quelle di trazione, in modo tale da ritardare o prevenire le rotture dovute al fenomeno della fatica. Esistono diverse tecniche per raggiungere questo risultato e permettere di prolungare la vita a fatica di un componente metallico, la più nota è sicuramente il Laser Shock Peening (LSP). Nel corso degli ultimi anni la maggior parte delle ricerche condotte rispetto a questa tecnica sono state incentrate sugli effetti meccanici che questo trattamento ha sul materiale in modo da determinare la configurazione ottimale per ottenere una distribuzione delle tensioni il più efficace possibile ai fini della vita a fatica; sono state svolte diverse prove sperimentali per studiare il ruolo dei parametri del laser e ottimizzare la procedura del LSP. Tra le tecniche utilizzate per valutare gli effetti del LSP in termini di tensioni residue, spiccano, oltre ai metodi computazionali, l'X-ray Diffraction (XRD) e l'Incremental Hole Drilling (IHD). L'elaborato di tesi qui presentato ha come scopo il confronto tra i livelli di tensioni residue riscontrate all'interno di provini sottili in lega di alluminio, sottoposti a differenti trattamenti laser, attraverso i suddetti metodi XRD e IHD. I risultati, già noti, ottenuti con la tecnica l'XRD sono stati posti a verifica attraverso dei test svolti con l'IHD presso i laboratori MaSTeRLab della Scuola di Ingegneria dell'Università di Bologna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa Tesi prende in esame tutte le fasi che portano alla realizzazione di un generico videogioco applicandole per creare, dal principio, un gioco 3D con Unity. Se ne analizzerà l'ideazione, la progettazione degli ambienti ma anche degli algoritmi implementati, la produzione e quindi la scrittura del codice per poi terminare con i test effettuati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diffusione dei social network ha permesso ad un elevato numero di persone di condividere i propri contenuti multimediali (testo, foto, video) con una larga platea di contatti. Potenzialmente questi contenuti possono essere condivisi anche con persone non direttamente collegate al proprietario. Uno dei comportamenti più diffuso degli utenti dei social network è la condivisione di foto. In questo contesto diventa importante riconoscere e preservare la proprietà di un'immagine. Lo studio effettuato in questo documento quindi, si prefigge lo scopo di controllare se i social network inseriscano un qualche watermark all'interno dell'immagine caricata. L'elaborato inoltre cerca di capire, analizzando e testando vari algoritmi di watermarking su immagini condivise, come le firme digitali vengano inserite all'interno di una foto e come queste rispondano alle alterazioni da parte dei social network.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I mondi di Smart City e Internet-of-Things si stanno ampliando notevolmente grazie all'evoluzione continua delle tecnologie. Tuttavia risultano escluse dall'ambito di interesse le zone rurali e decentralizzate perché spesso prive di un'infrastruttura di rete ben definita. A fronte di questo problema, i dispositivi che si trovano in queste zone potrebbero auto-organizzarsi per comunicare instaurando collegmenti di tipo peer-to-peer e utilizzando protocolli di disseminazione di informazioni basati su gossip. In questa tesi sono trattate le seguenti questioni e mediante alcune simulazioni al calcolatore sono riprodotti alcuni scenari per valutare le prestazioni degli algoritmi di Gossip with Fixed Probability e Conditional Broadcast e la diffusione delle informazioni tra i nodi all'interno di una rete creata in maniera opportunistica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I simulatori di guida sono strumenti altamente tecnologici che permettono di svolgere attività di ricerca in vari ambiti quali la psicologia, la medicina e l’ingegneria. Tuttavia, affinché i dati ottenuti mediante le simulazioni siano rapportabili alla loro controparte reale, la fedeltà delle componenti del simulatore di guida deve essere elevata. Questo lavoro tratta del miglioramento del sistema di restituzione del movimento nel simulatore a due gradi di libertà (2DOF) SIMU-LACET Driving Simulator, costruito e sviluppato presso il laboratorio LEPSIS dell’IFSTTAR (Istituto Francese delle Scienze e Tecnologie dei Trasporti, dello Sviluppo e delle Reti), in particolare nella sua sede di Parigi – Marne-la-Vallée. Si è deciso di andare a riprogettare la parte software del sistema di restituzione del movimento (motion cueing), operando su due elementi principali: lo scale factor (fattore di scala) applicato agli impulsi dinamici provenienti dal modello veicolare e i Motion Cueing Algorihms (MCA, algoritmi di restituzione del movimento), questo per entrambi i gradi di libertà. Si è quindi intervenuti sul modello esistente implementato in MATLAB-Simulink nello specifico blocco del motion cueing sul surge (traslazione longitudinale) e sul yaw (imbardata). Riguardo lo scale factor, è stata introdotta una metodologia per creare uno scale factor non lineare in forma esponenziale, tale da migliorare la restituzione degli impulsi meno ampi, pur rispettando i limiti fisici della piattaforma di movimento. Per quanto concerne il MCA, si sono vagliate diverse transfer function dell’algoritmo classico. La scelta finale dei MCA e la validazione del motion cueig in genere è stata effettuata mediante due esperimenti ed il giudizio dei soggetti che vi hanno partecipato. Inoltre, in virtù dei risultati del primo esperimento, si è investigata l’influenza che la strategia in merito al cambio delle marce avesse sulla percezione del movimento da parte del guidatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel contesto motoristico odierno, in cui le normative sulle emissioni sono sempre più stringenti, il costo dei carburanti è in costante rialzo e il diffondersi della consapevolezza che l’inquinamento prodotto dall’uomo ha alterato irreversibilmente il delicato equilibrio climatico, ha spinto i legislatori verso l’introduzione di norme sempre più stringenti per quanto riguarda le emissioni massime consentite ai motori ad accensione comandata. Questo ha portato alla ricerca di strategie che permettessero di proporre motori più efficienti mantenendo al contempo elevati livelli prestazionali. Il presente lavoro ha voluto meglio delineare le potenzialità e criticità di un sistema di iniezione d’acqua diretto studiandone gli effetti sul ciclo medio di combustione di un motore GDI ad alta potenza specifica alimentato con miscela stechiometrica. La metodica di ricerca è stata di tipo numerico tramite l’adozione di simulazioni CFD tridimensionali. Dopo una prima fase di studio per determinare la miglior combinazione di timing e pressione di iniezione in grado di portare i migliori benefici sotto l’aspetto termo-fluidodinamico nel motore in esame, si è analizzata la fase di combustione, realizzata con diversi anticipi e per quantitativi variabili d’acqua iniettata, procedendo poi al confronto con i risultati di combustione in condizioni di miscela ricca e assenza di acqua, rappresentativa delle condizioni di funzionamento attuali, al fine di individuare la minima massa d’acqua necessaria all’ottenimento delle medesime prestazioni. Si è proceduto poi a ricercare la massima prestazione tramite l’adozione di elevate pressioni d'iniezione, tali da permettere l’impiego di consistenti masse d’acqua. Infine, si sono indagati gli effetti dell’iniezione d’acqua al crescere del rapporto di compressione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi decenni nuove e sempre più restrittive normative antiinquinamento son state introdotte nei paesi maggiormente industrializzati dettando un aumento degli sforzi progettuali imposti all’industria automobilistica per cercare di contenere l’impatto ambientale esercitato dai motori a combustione interna. E’ evidente quindi l’importanza di possedere una profonda conoscenza dei fenomeni fisici e chimici che influenzano i processi di combustione così come avere a disposizione modelli quanto più accurati per la loro corretta rappresentazione tramite CFD. Per i motori ad accensione comandata gli studi si sono focalizzati sulla ricerca dell’efficienza evitando di incorrere in rischi di detonazione. Numerose sono le tecnologie che permettono di assolvere alle funzioni richieste, tra le più affermate vi sono i sistemi a fasatura variabile, in particolare le strategie che prendono il nome di ciclo Miller. Tale sistema, implementabile facilmente senza l’utilizzo di alcun sistema aggiuntivo, permette di ridurre sensibilmente temperature e pressioni in camera. Il seguente lavoro di tesi studierà, attraverso simulazione numerica tridimensionale condotta con software CONVERGE®, gli aspetti fisici e fluidodinamici indotti dalle diverse strategie REF, EIVC e LIVC applicate ad un motore GDI con tecnologia downsizing e turbocharging (modellato in ambiente CAD, tramite PTC CREO®). Successivamente, allo stesso motore, saranno apportate modifiche progettuali con lo scopo di comprendere in che modo un aumento di un punto del rapporto di compressione, che equivale a spostarsi verso zone a prestazioni più elevate, impatti sull’entità di pressione, temperatura e comportamento fluidodinamico e fisico a pari condizioni operative e di alzata. L’analisi ed il confronto con gli altri casi sancirà se questa nuova configurazione possa essere accettabile o rischiosa ai fini della detonazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduzione di normative antinquinamento sempre più stringenti ha costretto le case automobilistiche a progettare motori sempre più efficienti e puliti, sviluppando propulsori downsized sovralimentati sottoposti a notevoli sollecitazioni termomeccaniche. L’iniezione di acqua è una tecnologia innovativa che sfrutta il calore latente di evaporazione dell’acqua per raffreddare la carica, allontanando il rischio di detonazione nei motori ad accensione comandata. Essa punta a sostituire l’attuale arricchimento della miscela nei punti di funzionamento critici, in modo da diminuire i consumi di carburante e contenere le emissioni di CO, sottoposte nel prossimo futuro a limitazioni più stringenti nei cicli di omologazione RDE. Il presente lavoro di tesi ha voluto indagare, tramite simulazioni CFD, gli effetti dell’iniezione diretta di acqua su un motore GDI sovralimentato, modellato virtualmente. Le simulazioni hanno coinvolto dapprima le fasi di aspirazione e compressione, valutando l’effetto di raffreddamento sulla carica, la dinamica di evaporazione dell’acqua immessa e l’interazione sia con la dinamica dell’aria all’interno del cilindro, sia con la miscelazione aria-combustibile. Presi come riferimento i casi con λ1 e λ0,75 senz’acqua, l’analisi è iniziata quindi valutando quale fosse la fasatura di iniezione ottimale ed è proseguita analizzando gli effetti di due sistemi di iniezione a 50 bar e 150 bar al variare della quantità di acqua immessa. Una volta trovati i casi migliori nelle due configurazioni, si è proceduto a simulare la combustione, verificando che i benefici ottenuti fossero sfruttati in questa importante fase. Il raffreddamento della miscela permette di aumentare gli anticipi di accensione e quindi avere sia un maggior margine alla detonazione, sia un aumento di lavoro indicato. L’acqua però, comportandosi da inerte, inibisce la propagazione della fiamma, generando combustioni molto lunghe, che influiscono negativamente sulle temperature di scarico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si è incentrato sulla preparazione e caratterizzazione di manufatti elastomerici mediante Additive Manufacturing, sfruttabili per l'abbigliamento sportivo. Sono stati studiati diversi parametri di stampa, tra cui la geometria di riempimento, angoli di deposizione, infill e velocità di stampa, al fine di ottenere prestazioni ottimizzate confrontabili con materiali convenzionali. Inoltre sono state utilizzate per lo scopo diverse matrici elastomeriche caratterizzate da differente durezza Shore A. Le proprietà termiche dei manufatti stampati sono state studiate attraverso analisi TGA e DSC. Invece, le prestazioni meccaniche sono state analizzate attraverso DMA, prove di trazione e prove di compressione/espansione. Infine, è stato sviluppato un materiale innovativo nanocomposito al fine di ampliare il campo di utilizzo della FDM. Il materiale è stato caratterizzato tramite le classiche tecniche di analisi termiche e meccaniche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il CoViD-19, infezione dell’apparato respiratorio causata dal virus SARS-COV-2, può indurre una congestione polmonare acuta caratterizzata da dispnea, bassa saturazione di ossigeno e, spesso, infiltrazioni di liquido nei polmoni. In letteratura sono presenti diversi studi sul monitoraggio della congestione polmonare, seppur di diversa eziologia, per mezzo del segnale di bioimpedenza transtoracica. Questa grandezza quantifica la resistenza opposta dai tessuti al passaggio di una minima corrente alternata che diminuisce in relazione al maggiore contenuto di liquido nel tessuto polmonare patologico. Il monitoraggio remoto dello stato polmonare del paziente CoViD-19 mediante bioimpedenza transtoracica rappresenterebbe una soluzione ottimale in termini di pervasività, semplicità di sistema, sicurezza dal contagio e non invasività. Questo studio, inquadrato in un più ampio progetto regionale, MySIGN, si pone come obiettivo quello di caratterizzare il funzionamento di una scheda prototipale e individuare il setup sperimentale più idoneo per l’acquisizione dei segnali ECG e di bioimpedenza. Per confermare le ipotesi sulla variazione di impedenza è stato scelto come gold standard un sistema commerciale (Edema Guard Monitor) del quale sono state valutate la ripetibilità e sensibilità nell’effettuare misure di impedenza. Vengono perciò riportate le principali soluzioni progettuali per l’acquisizione dei segnali bioimpedenziometrici ed elettrocardiografici, le relative elaborazioni e gli algoritmi che permettono di ricavare stime di frequenza respiratoria, battito cardiaco e intervallo QT. Tali informazioni saranno poi integrate con misure di temperatura ed SpO2 in modo tale da fornire al personale sanitario una panoramica completa dello stato del paziente. La scheda di acquisizione verrà integrata nel dispositivo di telemonitoraggio del progetto MySIGN, il quale sarà impiegato in uno studio di sperimentazione clinica e successivamente andrà incontro all’iter di marcatura CE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attuale panorama motoristico, fortemente guidato dalle normative, prevede l’implementazione di diverse tecnologie che hanno lo scopo di migliorare l’efficienza del motore e ridurre le emissioni di inquinanti e per le quali risulta necessario una corretta progettazione dei condotti di aspirazione. Lo sviluppo ottimale dei condotti risulta un compromesso tra obiettivi contrastanti e in termini matematici si tratta di un’ottimizzazione multiobiettivo. Le simulazioni CFD e gli algoritmi genetici sono stati applicati con successo allo studio di questi problemi, ma la combinazione di questi elementi risulta notevolmente dispendiosa in termini di tempo, in quanto sarebbero necessarie un alto numero di simulazioni. Per ridurre i tempi di calcolo, un set di simulazioni CFD pu`o essere pi`u convenientemente utilizzato per istruire una rete neurale, che una volta opportunamente istruita pu`o essere usata per prevedere gli output delle simulazioni in funzione dei parametri di progetto durante l’ottimizzazione con l’algoritmo genetico, operando quella che viene chiamata una ottimizzazione virtuale. In questa tesi, viene mostrata una metodologia numerica per l’ottimizzazione multi-obiettivo dei condotti di aspirazione, basata su un modello CAD a geometria variabile, le simulazioni fluidodinamiche tridimensionali e una rete neurale combinata con un algoritmo genetico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La colonna vertebrale è la principale sede di metastasi, le quali possono alterare la normale distribuzione dei tessuti ossei e ridurre la capacità della vertebra di sostenere carichi. L’instabilità spinale causata dalle metastasi, tuttavia, è di difficile determinazione. La caratterizzazione meccanica delle vertebre metastatiche permetterebbe di identificare e, di conseguenza trattare, quelle ad alto rischio di frattura. In questo studio, ho valutato il comportamento meccanico a rottura di vertebre umane affette da metastasi misurando in vitro il campo di deformazione. Undici provini, costituiti da due vertebre centrali, una metastatica e una sana, sono stati preparati e scansionati applicando carichi graduali di compressione in una micro-tomografia computerizzata (μCT). Le deformazioni principali sono state misurate attraverso un algoritmo globale di Digital Volume Correlation (DVC) e successivamente sono state analizzate. Lo studio ha rivelato che le vertebre con metastasi litiche raggiungono deformazioni maggiori delle vertebre sane. Invece, le metastasi miste non assicurano un comportamento univoco in quanto combinano gli effetti antagonisti delle lesioni litiche e blastiche. Dunque la valutazione è stata estesa a possibili correlazioni tra il campo di deformazione e la microstruttura della vertebra. L'analisi ha identificato le regioni in cui parte la frattura (a più alta deformazione), senza identificare, in termini microstrutturali, una zona preferenziale di rottura a priori. Infatti, alcune zone con un pattern trabecolare denso, presunte più rigide, hanno mostrato deformazioni maggiori di quelle dei tessuti sani, sottolineando l’importanza della valutazione della qualità del tessuto osseo. Questi risultati, generalizzati su un campione più ampio, potrebbero essere utilizzati per implementare nuovi criteri negli attuali sistemi di valutazione dell'instabilità spinale.