480 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’aumento della quantità di inquinanti emessi in atmosfera, legati all’attività antropica che si è osservato negli ultimi anni, ha portato all’emanazione di normative allo scopo di migliorare la qualità dell’aria e mitigare il cambiamento climatico. I settori responsabili di queste emissioni sono molteplici ma quello dei trasporti risulta essere uno dei maggiori indagati, condizione che ha portato ad una maggiore complessità dei motori a combustione interna, cercando così di ridurre l’impatto che hanno sull’ambiente, il clima e la salute umana. Nonostante tutto, l’abbassamento continuo dei limiti massimi, relativi alla quantità di sostanze che possono essere emesse dai veicoli, ha spinto le case automobilistiche a ricercare nuovi sistemi di propulsione. In questo contesto di riduzione degli inquinanti, sta assumendo una posizione di rilievo la scelta di utilizzare l’idrogeno come combustibile alternativo, concetto che verrà approfondito in questa tesi. Tenendo presente che un ciclo motore è suddiviso in 4 fasi: aspirazione, compressione, espansione e scarico, nell’elaborato di questa tesi, verranno analizzate la sola compressione e successiva combustione sfruttando il software di simulazione AVL FIRE. Lo studio prevede la realizzazione di un modello in grado di descrivere e simulare in maniera realistica il fenomeno di combustione dell’idrogeno e la definizione di una procedura per la caratterizzazione dei parametri di iniezione, prestando particolare attenzione all’influenza che questi hanno sul processo di formazione della miscela in modo da giungere ad una configurazione ottimale. Inizialmente sarà utilizzata una geometria con un iniettore a foro singolo posizionato centralmente, la quale progressivamente verrà modificata allo scopo di ottenere una rappresentazione sempre più simile alla condizione reale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attraverso questa tesi si vuole mostrare il valore aggiunto che i sistemi di immagazzinamento automatico della merce possono offrire alle aziende, facendo un focus particolare sulle aziende manifatturiere. La scelta di approfondire questa tematica nasce dall’esperienza di tirocinio svolta all’interno di Automobili Lamborghini S.p.A. situata a Sant’Agata Bolognese (Bologna), nota in tutto il mondo per la produzione di Super Sport Cars. Partendo dall'introduzione dell'order picking e delle tipologie di magazzini esistenti, si passerà all'introduzione di algoritmi per il posizionamento dei codici all'interno di un magazzino. Una volta introdotto il problema dello stoccaggio dei codici di normaleria all'interno di un magazzino, verrà identificata la soluzione implementata in Automobili Lamborghini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mentre si svolgono operazioni su dei qubit, possono avvenire vari errori, modificando così l’informazione da essi contenuta. La Quantum Error Correction costruisce algoritmi che permettono di tollerare questi errori e proteggere l’informazione che si sta elaborando. Questa tesi si focalizza sui codici a 3 qubit, che possono correggere un errore di tipo bit-flip o un errore di tipo phase-flip. Più precisamente, all’interno di questi algoritmi, l’attenzione è posta sulla procedura di encoding, che punta a proteggere meglio dagli errori l’informazione contenuta da un qubit, e la syndrome measurement, che specifica su quale qubit è avvenuto un errore senza alterare lo stato del sistema. Inoltre, sfruttando la procedura della syndrome measurement, è stata stimata la probabilità di errore di tipo bit-flip e phase-flip su un qubit attraverso l’utilizzo della IBM quantum experience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguente tesi propone un’introduzione al geometric deep learning. Nella prima parte vengono presentati i concetti principali di teoria dei grafi ed introdotta una dinamica di diffusione su grafo, in analogia con l’equazione del calore. A seguire, iniziando dal linear classifier verranno introdotte le architetture che hanno portato all’ideazione delle graph convolutional networks. In conclusione, si analizzano esempi di alcuni algoritmi utilizzati nel geometric deep learning e si mostra una loro implementazione sul Cora dataset, un insieme di dati con struttura a grafo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spina dorsale è uno dei principali siti di sviluppo di metastasi ossee. Queste alterano sia la composizione strutturale che il comportamento meccanico delle vertebre metastatiche, riducendone la resistenza meccanica ed aumentandone il rischio di rottura. Questo studio ha valutato la composizione microstrutturale ed il comportamento meccanico a rottura in specifiche regioni all’interno di vertebre metastatiche. 11 segmenti vertebrali da cadavere, costituiti da una vertebra sana ed una con metastasi (litica, mista o blastica), sono stati testati con carichi graduali di compressione e scansionati con microCT. Le deformazioni interne sono state misurate tramite un algoritmo globale di Digital Volume Correlation (DVC). I risultati dall’analisi microstrutturale hanno mostrato l’ influenza sulla microstruttura delle diverse tipologie di metastasi in corrispondenza della lesione, mentre le caratteristiche microstrutturali nelle regioni intorno alla lesione sono risultate simili a quelle delle vertebre sane. L’analisi delle deformazioni ha inoltre permesso di valutare l’ effetto delle diverse tipologie di metastasi nel compromettere la stabilità spinale. Le vertebre con metastasi litiche hanno raggiunto deformazioni maggiori in corrispondenza della lesione, regione meccanicamente più debole e con una microstruttura maggiormente compromessa a causa della metastasi. Le vertebre con metastasi blastiche hanno raggiunto deformazioni minori nella lesione, regione che ha mostrato una maggiore resistenza meccanica ai carichi, e deformazioni maggiori nelle zone più lontane. Le vertebre con metastasi miste hanno mostrato un comportamento meccanico non univoco, legato alla predominanza di una lesione sull’altra. Infatti, la posizione e la proporzione tra le due lesioni sembra influenzare il comportamento meccanico. I risultati di questo studio, una volta generalizzati, potrebbero portare alla spiegazione delle cause di instabilità meccanica nelle vertebre metastatiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’applicazione degli algoritmi di Intelligenza Artificiale (AI) al settore dell’imaging medico potrebbe apportare numerosi miglioramenti alla qualità delle cure erogate ai pazienti. Tuttavia, per poterla mettere a frutto si devono ancora superare alcuni limiti legati alla necessità di grandi quantità di immagini acquisite su pazienti reali, utili nell’addestramento degli stessi algoritmi. Il principale limite è costituito dalle norme che tutelano la privacy di dati sensibili, tra cui sono incluse le immagini mediche. La generazione di grandi dataset di immagini sintetiche, ottenute con algoritmi di Deep Learning (DL), sembra essere la soluzione a questi problemi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo delle reti mobili è fornire ai dispositivi wireless accesso a una grande varietà di servizi dati, in un’ampia area geografica. Nonostante le reti cellulari odierne, basate sulla tecnologia Massive MIMO, possano raggiungere elevate performance in condizioni favorevoli (centro cella) esse, presentano all’interno dell’area di copertura, zone soggette a data-rate notevolmente ridotti. In questo elaborato, viene brevemente descritta la rete cell-free; una nuova architettura di rete pensata per superare i vecchi limiti delle reti cellulari tradizionali. Successivamente, vengono presentati attraverso simulazioni i due principali vantaggi che queste nuove reti cell-free offrono. Inoltre, viene analizzato uno schema random access in grado di gestire l’accesso multiplo per queste nuove architetture di rete. Questo schema rappresenta un’estensione di un protocollo già presente in letteratura e perfettamente funzionante per reti Massive MIMO, appartenente alla famiglia dei protocolli Coded Slotted ALOHA. Infine, un'analisi delle prestazioni e alcuni possibili scenari sono stati presentati, con lo scopo di valutare l'effetto che algoritmi di tipo SIC possono avere su queste reti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fino a 15 anni fa, era possibile aumentare il numero di transistor su un singolo chip e contemporaneamente la sua frequenza di clock mantenendo la densità di potenza costante. Tuttavia dal 2004 non è più possibile mantenere invariata la potenza dissipata per unità d’area a causa di limitazioni fisiche. Al fine di aumentare le performance dei processori e di impedire una diminuzione delle frequenze di clock, i processori moderni integrano on-die dei Power Controller Subsystems (PCS) come risorsa hardware dedicata che implementa complesse strategie di gestione di temperatura e potenza. In questo progetto di tesi viene progettata l'architettura dell'interfaccia di comunicazione di ControlPULP, un PCS basato su ISA RISC-V, per la connessione verso un processore HPC. Tale interfaccia di comunicaione integra il supporto hardware per lo scambio di messaggi secondo la specifica SCMI. L'interfaccia sviluppata viene successivamente validata attraverso simulazione ed emulazione su supporto hardware FPGA. Tale supporto hardware viene inoltre utilizzato per la caratterizzazione dell'utilizzo di risorse dell'architettura progettata. Oltre allo sviluppo dell'interfaccia hardware viene sviluppato e caratterizzato un firmware per la decodifica dei messaggi SCMI conforme ai requisiti di esecuzione su un sistema real-time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel campo della trasmissione di segnali alfanumerici è cresciuto sempre di più l’interesse riguardo alla trasmissione di segnali caratterizzati da più sottoportanti affiancate nel dominio della frequenza mediante modulazione multiportante (MC, multicarrier modulation). Si è dimostrato che OFDM è un’effettiva tecnica per "combattere" il problema del multipath-fading nei canali wirless. Il multipath-fading è una forma di distorsione di un segnale che giunge a destinazione sotto forma di un certo numero di repliche, sfasate nel tempo, originate dai vari percorsi che il segnale stesso può aver seguito durante la sua propagazione e sommantesi tra loro in ricezione; ogni replica inoltre, sarà soggetta ad un’attenuazione in generale diversa da quella subita dalle altre repliche. Ciò che si vuole realizzare è un sistema di trasmissione e ricezione dati alfanumerico tramite la modulazione OFDM tramite l’utilizzo di due dispositivi SDR. In particolare per la trasmissione del segnale viene utilizzato il dispositivo ADALM-PLUTO, ed è lasciata libera scelta nel trasmettere qualsiasi tipo di segnale alfanumerico, ovvero il numero di simboli OFDM può variare a discrezione dell’utente. Per la ricezione del segnale inviato è stato impiegato il dispositivo Noolec NESDR, e l’utente, qui, sarà invece obbligato a inserire il numero di simboli OFDM da dover ricevere per avere così una corretta decodifica del segnale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ventilazione meccanica è un utile strumento per far fronte a patologie respiratorie, ma per avere un risultato ottimale è necessario impostare il ventilatore in modo personalizzato, al fine di rispettare la meccanica respiratoria di ogni paziente. Per far questo si possono utilizzare modelli della meccanica respiratoria dello specifico paziente, i cui parametri devono essere identificati a partire dalla conoscenza di variabili misurabili al letto del paziente. Schranz et al. hanno proposto l’utilizzo di un nuovo metodo, il Metodo Integrale Iterativo, la cui efficacia è stata valutata confrontandone le prestazioni con quelle di altre tecniche consolidate di identificazione parametrica: regressione lineare multipla, algoritmi iterativi e metodo integrale. Tutti questi metodi sono stati applicati ad un modello viscoelastico del secondo ordine della meccanica respiratoria utilizzando sia dati simulati sia dati clinici. Da questa analisi comparata è emerso che nel caso di simulazioni prive di rumore quasi tutti i metodi sono risultati efficaci, seppur con tempi di calcolo diversi; mentre nel caso più realistico con la sovrapposizione del disturbo l’affidabilità ha subito un ridimensionamento notevole in quasi tutti i casi, fatta eccezione per il metodo Simplex Search (SSM) e il Metodo Integrale Iterativo (IIM). Entrambi hanno fornito approssimazioni soddisfacenti con errori minimi, ma la prestazione di IIM è stata decisamente superiore in termini di velocità (fino a 50 volte più rapido) e di indipendenza dai parametri iniziali. Il metodo SSM, infatti, per dare buoni risultati necessita di una stima iniziale dei parametri, dalla quale far partire l’iterazione. Data la sua natura iterativa, IIM ha invece dimostrato di poter arrivare a valori realistici dei parametri anche in caso di condizioni iniziali addirittura fuori dal range fisiologico. Per questo motivo il Metodo IIM si pone come un utile strumento di supporto alla ventilazione meccanica controllata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi viene presentata un’analisi di sostenibilità economica, ambientale e sociale di un sistema di cattura e purificazione della CO2 post-combustione. Al fine di ottenere i dati utili al calcolo di indici significativi di sostenibilità, si è scelto di modellare, attraverso il software Aspen Plus®, un processo di assorbimento chimico con ammine, tecnologia matura e spesso impiegata a questo scopo per settori industriali di taglie superiori. Al sistema di assorbimento viene poi fatta seguire un’unità di compressione e purificazione, finalizzata al raggiungimento di specifiche condizioni della corrente in uscita, legate alla successiva tipologia di trasporto considerata: gas pressurizzato via pipeline o gas liquefatto via nave. L’analisi economica si è basata sul calcolo di costi operativi, costi variabili, costo della CO2 evitata e consumo specifico di energia (SPECCA). La simulazione ha infatti consentito di ottenere un dimensionamento di massima delle apparecchiature e il consumo di utenze, valori necessari alla stima degli indici. Gli indici economici calcolati sono poi stati utilizzati per comprendere quale parte del processo fosse la più critica e che impatto avessero le unità di compressione e purificazione rispetto alla presenza del solo impianto di cattura. Analisi simili sono state svolte anche in termini di sostenibilità ambientale e sociale. La prima è stata svolta calcolando l’effettiva rimozione di CO2 del sistema, tenendo in considerazione le emissioni dirette e indirette connesse al funzionamento degli apparati. L’analisi sociale è stata ridotta a un’analisi qualitativa della sicurezza, attuata attraverso il calcolo dell’Indice di sicurezza intrinseca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo dell’elaborato è quello di valutare una prima applicazione di intelligenza artificiale per svolgere manutenzione predittiva sui giunti installati nella rete di distribuzione, al fine di prevenirne i guasti. L’estensione delle reti in cavo è infatti in costante aumento per supportare lo sviluppo della rete elettrica e, per l’installazione di nuove linee o nella manutenzione di cavi, si fa uso di giunti, spesso soggetti a guasti e di difficile manutenzione. Risulta quindi importante svolgere manutenzione predittiva su questi componenti, al fine di prevenirne i guasti ed ottenere un risparmio in termini di tempo e denaro. A seguito un’attenta analisi della struttura dei giunti, dei loro modi di guasto e dei parametri caratteristici, si è proceduto alla generazione sintetica di un dataset contenente misure sui giunti e, sulla base di specifici criteri applicati a questi valori, l’informazione sulla presenza o sull’assenza di un guasto. Il dataset è stato poi utilizzato per la fase di apprendimento e di test di sei algoritmi di machine learning, selezionati a partire da considerazioni sullo stato dell’arte, valutato tramite una Revisione Sistematica della Letteratura (SLR). I risultati così ottenuti sono stati analizzati tramite specifiche metriche e da questo caso di studio sono emerse le elevate potenzialità delle tecnologie di intelligenza artificiale ai fini della prevenzione dei guasti nelle reti di distribuzione, soprattutto se considerata la semplicità implementativa degli algoritmi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, a causa degli enormi progressi dell’informatica e della sempre crescente quantità di dati generati, si è sentito sempre più il bisogno di trovare nuove tecniche, approcci e algoritmi per la ricerca dei dati. Infatti, la quantità di informazioni da memorizzare è diventata tale che ormai si sente sempre più spesso parlare di "Big Data". Questo nuovo scenario ha reso sempre più inefficaci gli approcci tradizionali alla ricerca di dati. Recentemente sono state quindi proposte nuove tecniche di ricerca, come ad esempio le ricerche Nearest Neighbor. In questo elaborato sono analizzate le prestazioni della ricerca di vicini in uno spazio vettoriale utilizzando come sistema di data storage Elasticsearch su un’infrastruttura cloud. In particolare, sono stati analizzati e messi a confronto i tempi di ricerca delle ricerche Nearest Neighbor esatte e approssimate, valutando anche la perdita di precisione nel caso di ricerche approssimate, utilizzando due diverse metriche di distanza: la similarità coseno e il prodotto scalare.