476 resultados para catalizzatori supporto pentandioli


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La manutenzione è attualmente considerata un servizio volto a preservare costantemente inalterata l’efficienza e la sicurezza di macchinari e impianti, senza per questo trascurare le esigenze di qualità, di risparmio energetico e di sicurezza. Gli obiettivi del presente lavoro sono quelli di analizzare le modalità con cui vengono forniti alcuni dati a supporto della manutenzione di un impianto industriale in una applicazione esistente, di analizzarle per rilevarne le criticità ed infine proporre ed implementare alcune modifiche migliorative. Per raggiungere tale risultato verrà presentato il caso di Righi Group SPA, società fornitrice di quadri elettrici e software per impianti automatici. Partendo dall’analisi di un progetto recentemente realizzato verranno effettuate alcune osservazioni e proposte che mostreranno in che modo sia possibile (tramite implementazioni software ed alcune eventuali modifiche hardware) sviluppare un evoluto sistema di raccolta ed elaborazione dati per gettare le basi ad un progetto di manutenzione preventiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un danneggiamento in una struttura altera le sue caratteristiche dinamiche quali frequenze naturali, indici di smorzamento e forme modali associate ad ogni frequenza naturale. In particolare, nel caso di travi, una variazione di rigidezza flessionale è in generale definibile danneggiamento se corrisponde ad una riduzione della stessa; tuttavia, anche un incremento altera i parametri dinamici della struttura. Il presente elaborato investiga l’applicazione del cambiamento nelle curvature modali per identificare un incremento di rigidezza flessionale in una trave metallica semplicemente appoggiata studiata presso il laboratorio LISG dell’Università di Bologna. Utilizzando le differenze centrali, le curvature modali sono state calcolate dalle forme modali ottenute sperimentalmente. Le modalità di calcolo utilizzate per identificare le forme modali della trave sono accomunate dall’utilizzo delle funzioni di trasferimento sperimentali ricavate sia dal rapporto tra le trasformate di output ed input, sia facendo uso della densità di potenza spettrale (PSD e CPSD). A supporto delle indagini sperimentali e per validare le modalità di calcolo utilizzate è stata modellata tramite elementi finiti una trave semplicemente appoggiata che simula la configurazione iniziale e quella irrigidita localmente in un suo tratto. I risultati numerici condotti validano le modalità utilizzate per la determinazione delle forme modali, evidenziando una forte sensibilità delle curvature modali all’irrigidimento locale. Come atteso, lato sperimentale le forme modali risultano meno accurate di quelle dedotte dalle esperienze numeriche. I risultati ottenuti evidenziano limiti e potenzialità dell’algoritmo di identificazione impiegato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il sistema muscolo scheletrico è costituito dall’insieme di ossa, cartilagini e tessuti molli come muscoli, tendini e legamenti, che presentano una diversa struttura e differenti proprietà meccaniche tra loro. La sua principale funzione è quella di fornire supporto, forma e garantire il movimento fisiologico del corpo. Per questa ragione, il sistema muscolo scheletrico e continuamente sollecitato e di conseguenza molto soggetto a traumi o infortuni. Un’alternativa all’approccio chirurgico tradizionale è l’ingegneria tissutale che permette di creare scaffold in grado di promuovere la rigenerazione dei tessuti naturali. Negli ultimi decenni si è riscontrato un forte incremento dell’utilizzo della stampa 3D e dell’elettrofilatura come tecniche di fabbricazione di questi scaffold grazie ai loro diversi vantaggi. La stampa 3D presenta diversi benefici, tra cui la possibilità di creare costrutti personalizzati in grado di riprodurre similmente la geometria del tessuto nativo con efficienza dei costi e tempi di produzione ridotti rispetto alle tecniche tradizionali. Tuttavia, questa tecnica presenta ancora una limitata risoluzione sufficiente, ad esempio, per riprodurre la struttura e le proprietà del tessuto osseo, ma non idonea al raggiungimento della scala nanometrica, tipica dei tessuti fibrosi muscolo scheletrici. Al contrario, l’elettrofilatura è in grado di produrre fibre nanometriche che riescono a mimare la matrice extracellulare di questi tessuti. Tuttavia, si riscontrano ancora alcune difficoltà nel controllare la struttura tridimensionale e le proprietà meccaniche di questi scaffold nella scala micro e macrometrica. Lo scopo di questa tesi è quello di analizzare gli studi che utilizzano un approccio combinato tra stampa 3D ed elettrofilatura per la produzione di scaffold per la rigenerazione del tessuto muscolo scheletrico, definendo lo stato dell’arte dei vari processi di produzione e le possibili prospettive future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro propone la stesura di un codice in ambiente MATLAB per l'analisi energetica di powertrain ibridi operanti nel ciclo WLTP con il particolare funzionamento del motore termico benzina a punto fisso stechiometrico. Nello specifico, il codice prende dei dati in input tramite un'interfaccia grafica ed avvia una simulazione, i cui risultati principali corrispondono ad emissioni di anidride carbonica per chilometro percorso ed ai chilometri percorsi con un litro di carburante. Queste sono le due grandezze che questo lavoro si prefigge di ottimizzare, dalle quali proviene la scelta del particolare funzionamento del motore termico. Sono state implementate due differenti strategie di controllo, una generale ed una più particolare. La simulazione con la strategia generale è stata applicata a tre differenti scenari reali, con le caratteristiche tecniche di tre veicoli realmente esistenti che vengono inserite nell'interfaccia grafica. I risultati provenienti da queste simulazioni sono stati poi analizzati e discussi nel dettaglio, anche con l'ausilio di grafici a supporto della spiegazione. La strategia di controllo particolare non è stata applicata a scenari reali ma ha portato alla definizione di una ipotetica architettura di powertrain ibrido, alla quale la sopracitata strategia si adatta al meglio. Dopo aver proposto miglioramenti e possibili ulteriori sviluppi di questo lavoro, sono state tratte le conclusioni generali, allargando il tutto al contesto più ampio in cui si va ad inserire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'oggetto del mio studio sono i contenuti televisivi (pubblicità, programmi, promozioni televisive) che accompagnano i film archiviati nelle videocassette contenute nell'archivio della videoteca del Dipartimento delle Arti. Una prima fase del lavoro, di natura pratica, mi ha fisicamente portato in videoteca per studiare un campione di più di 2500 videocassette in poco più di un mese e raccogliere dati relativi a quali contenuti di natura televisiva vi si presentassero insieme al film archiviato. Ho visionato e censito, con la supervisione del dott. Gianmario Merizzi, circa 1800 cassette VHS, corrispondenti alla filmografia italiana e francese, raccolte e registrate in un periodo compreso tra gli anni '80 e i primi 2000. Dopo aver raccolto tutte le informazioni utili, ho eseguito un'analisi palinsestuale e pubblicitaria su un campione ridotto di 7 videocassette scelte secondo criteri ben precisi. L'analisi palinsestuale, con il supporto del correlatore, il prof. Luca Barra, ha rivelato i cambiamenti delle strategie di programmazione messe in atto dalle reti in risposta ai cambiamenti normativi, tecnologici e competitivi che hanno segnato la TV italiana negli anni '80 e '90; L'analisi pubblicitaria ha preso in esame i 25 messaggi pubblicitari contenuti nei 7 volumi approfonditi, descrivendone le dinamiche sia del messaggio pubblicitario stesso, sia di come questo si contestualizza all'interno della programmazione televisiva. Infine, ho dedicato un capitolo al valore archivistico dei contenuti della videoteca, raccogliendo le testimonianze del dott. Gianmario Merizzi e della dott.ssa Michela Giorgi, i quali mi hanno aiutato a ricostruire i momenti salienti della costituzione dell'archivio e a riflettere sul futuro incerto che questi servizi oggi affrontano, in un presente sempre più virtuale e ipermediato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato prende in analisi due diverse traduzioni italiane, la traduzione di Gabriele Baldini pubblicata per la prima volta nel 1950 e quella di Tommaso Pincio uscita nel 2021, del romanzo distopico "1984" di George Orwell, con particolare attenzione alla traduzione del Newspeak. Lo scopo finale è quello di individuare le differenti scelte traduttive adottate dai due traduttori presi in esame. A supporto di questa analisi, nel primo capitolo verrà effettuata una panoramica generale delle lingue inventate, mentre nel secondo capitolo verrà presentato l’autore, l’opera stessa e la sua storia editoriale. Nel terzo capitolo l’attenzione verrà poi rivolta alla teoria linguistica di Orwell e alle caratteristiche principali del Newspeak. Infine, nel quarto capitolo, verrà effettuata la vera e propria analisi delle scelte traduttive relative al Newspeak adottate dai due traduttori italiani.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il testo verte sulla traduzione audiovisiva e le tecniche di doppiaggio e sottotitolaggio. In particolare, si parla delle strategie di doppiaggio utilizzate per tradurre i riferimenti specifici alla cultura ebraica: foreignization e domestication. Come esempio di foreignization vengono presentati alcuni episodi della sitcom americana The Nanny (La Tata), mentre a supporto della domestication vengono analizzati alcuni episodi della serie TV di Amazon prime Video The Marvelous Mrs. Maisel (La fantastica Signora Maisel).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi verte sull’analisi e l’ottimizzazione dei flussi di libri generati tra le diverse sedi della biblioteca pubblica, Trondheim folkebibliotek, situata a Trondheim, città del nord norvegese. La ricerca si inserisce nell’ambito di un progetto pluriennale, SmartLIB, che questa sta intraprendendo con l’università NTNU - Norwegian University of Science and Technology. L’obiettivo di questa tesi è quello di analizzare possibili soluzioni per ottimizzare il flusso di libri generato dagli ordini dei cittadini. Una prima fase di raccolta ed analisi dei dati è servita per avere le informazioni necessarie per procedere nella ricerca. Successivamente è stata analizzata la possibilità di ridurre i flussi andando ad associare ad ogni dipartimento la quantità di copie necessarie per coprire il 90% della domanda, seguendo la distribuzione di Poisson. In seguito, sono state analizzate tre soluzioni per ottimizzare i flussi generati dai libri, il livello di riempimento dei box ed il percorso del camion che giornalmente visita tutte le sedi della libreria. Di supporto per questo secondo studio è stato il Vehicle Routing Problem (VRP). Un modello simulativo è stato creato su Anylogic ed utilizzato per validare le soluzioni proposte. I risultati hanno portato a proporre delle soluzioni per ottimizzare i flussi complessivi, riducendo il delay time di consegna dei libri del 50%, ad una riduzione del 53% del flusso di box e ad una conseguente aumento del 44% del tasso di riempimento di ogni box. Possibili future implementazioni delle soluzioni trovate corrispondono all’installazione di una nuova Sorting Machine nella sede centrale della libreria ed all’implementazione sempre in quest’ultima di un nuovo schedule giornaliero.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel corso degli ultimi anni si è assistito ad un aumento di episodi fraudolenti nel settore alimentare. Ciò è vero anche per il settore oleario: per il suo elevato valore economico, nutrizionale e sensoriale, l’olio extra vergine di oliva è un bersaglio perfetto dei frodatori, che realizzano molteplici tipologie di adulterazione. Questo lavoro di tesi si è focalizzato, in particolare, sull’adulterazione dell’olio extra vergine di oliva con olio di semi di girasole. Su campioni preparati in laboratorio per simulare la frode, a partire da due oli extra vergini di oliva addizionati con percentuali diverse di olio di girasole, sono state effettuate determinazioni analitiche utilizzando un sensore spettrale, basato sulla spettroscopia nel vicino infrarosso, seguite da un’elaborazione chemiometrica dei risultati. Lo strumento portatile è stato sviluppato da una start-up olandese presso cui ho svolto il tirocinio curriculare. Il modello di stima risultante dalle risposte fornite dai 16 pixel del sensore ha mostrato una capacità di rilevazione soddisfacente nei confronti di questa adulterazione, conducendo ad un errore medio nella stima della percentuale di olio di girasole aggiunto intorno al 3%. Tale risultato, se verrà confermato da ulteriori analisi grazie alle quali il modello predittivo potrà essere reso più robusto, potrebbe incoraggiare l’utilizzo di questa metodologia analitica come tecnica rapida di screening, facilmente applicabile anche in un contesto industriale, a supporto delle più laboriose e complesse tecniche analitiche tradizionali, nella rilevazione di adulterazioni di oli extra vergini di oliva con oli di semi di girasole.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il morbo di Alzheimer è ancora una malattia incurabile. Negli ultimi anni l'aumento progressivo dell'aspettativa di vita ha contribuito a un'insorgenza maggiore di questa patologia, specialmente negli stati con l'età media più alta, tra cui l'Italia. La prevenzione risulta una delle poche vie con cui è possibile arginarne lo sviluppo, ed in questo testo vengono analizzate le potenzialità di alcune tecniche di Machine Learning atte alla creazione di modelli di supporto diagnostico per Alzheimer. Dopo un'opportuna introduzione al morbo di Alzheimer ed al funzionamento generale del Machine Learning, vengono presentate e approfondite due delle tecniche più promettenti per la diagnosi di patologie neurologiche, ovvero la Support Vector Machine (macchina a supporto vettoriale, SVM) e la Convolutional Neural Network (rete neurale convoluzionale, CNN), con annessi risultati, punti di forza e principali debolezze. La conclusione verterà sul possibile futuro delle intelligenze artificiali, con particolare attenzione all'ambito sanitario, e verranno discusse le principali difficoltà nelle quali queste incombono prima di essere commercializzate, insieme a plausibili soluzioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fino a 15 anni fa, era possibile aumentare il numero di transistor su un singolo chip e contemporaneamente la sua frequenza di clock mantenendo la densità di potenza costante. Tuttavia dal 2004 non è più possibile mantenere invariata la potenza dissipata per unità d’area a causa di limitazioni fisiche. Al fine di aumentare le performance dei processori e di impedire una diminuzione delle frequenze di clock, i processori moderni integrano on-die dei Power Controller Subsystems (PCS) come risorsa hardware dedicata che implementa complesse strategie di gestione di temperatura e potenza. In questo progetto di tesi viene progettata l'architettura dell'interfaccia di comunicazione di ControlPULP, un PCS basato su ISA RISC-V, per la connessione verso un processore HPC. Tale interfaccia di comunicaione integra il supporto hardware per lo scambio di messaggi secondo la specifica SCMI. L'interfaccia sviluppata viene successivamente validata attraverso simulazione ed emulazione su supporto hardware FPGA. Tale supporto hardware viene inoltre utilizzato per la caratterizzazione dell'utilizzo di risorse dell'architettura progettata. Oltre allo sviluppo dell'interfaccia hardware viene sviluppato e caratterizzato un firmware per la decodifica dei messaggi SCMI conforme ai requisiti di esecuzione su un sistema real-time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ventilazione meccanica è un utile strumento per far fronte a patologie respiratorie, ma per avere un risultato ottimale è necessario impostare il ventilatore in modo personalizzato, al fine di rispettare la meccanica respiratoria di ogni paziente. Per far questo si possono utilizzare modelli della meccanica respiratoria dello specifico paziente, i cui parametri devono essere identificati a partire dalla conoscenza di variabili misurabili al letto del paziente. Schranz et al. hanno proposto l’utilizzo di un nuovo metodo, il Metodo Integrale Iterativo, la cui efficacia è stata valutata confrontandone le prestazioni con quelle di altre tecniche consolidate di identificazione parametrica: regressione lineare multipla, algoritmi iterativi e metodo integrale. Tutti questi metodi sono stati applicati ad un modello viscoelastico del secondo ordine della meccanica respiratoria utilizzando sia dati simulati sia dati clinici. Da questa analisi comparata è emerso che nel caso di simulazioni prive di rumore quasi tutti i metodi sono risultati efficaci, seppur con tempi di calcolo diversi; mentre nel caso più realistico con la sovrapposizione del disturbo l’affidabilità ha subito un ridimensionamento notevole in quasi tutti i casi, fatta eccezione per il metodo Simplex Search (SSM) e il Metodo Integrale Iterativo (IIM). Entrambi hanno fornito approssimazioni soddisfacenti con errori minimi, ma la prestazione di IIM è stata decisamente superiore in termini di velocità (fino a 50 volte più rapido) e di indipendenza dai parametri iniziali. Il metodo SSM, infatti, per dare buoni risultati necessita di una stima iniziale dei parametri, dalla quale far partire l’iterazione. Data la sua natura iterativa, IIM ha invece dimostrato di poter arrivare a valori realistici dei parametri anche in caso di condizioni iniziali addirittura fuori dal range fisiologico. Per questo motivo il Metodo IIM si pone come un utile strumento di supporto alla ventilazione meccanica controllata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi ha come proposito esplorare le architetture che integrano i Digital Twins in applicazioni di Mixed Reality. L’obiettivo cardine è quello di mostrare una possibile realizzazione di un sistema di questo tipo. Per raggiungere l’obiettivo posto si è scelto di progettare un sistema che sia realizzabile come soluzione in un contesto reale. La tesi è strutturata in modo tale da offrire al lettore una presentazione generale delle tecnologie utilizzate mantenendole ben distinte. Successivamente viene analizzata la possibilità di unire queste tecnologie presentando quindi delle possibili implementazioni. Come Caso di Studio si è scelto di realizzare un’applicazione a supporto dei medici che offrisse, durante un’operazione chirurgica, la possibilità di visualizzare il monitor dei parametri vitali tramite ologramma. L’architettura presentata viene suddivisa in tre sottosistemi indipendenti in base alla tecnologia presa di riferimento. Le macro sezioni presentate sono: Physical Asset, Digital Twins e Hologram. Questi sottosistemi vengono analizzati uno per volta e successivamente viene realizzata l’architettura inerente. Terminata la realizzazione del sistema, vengono presentate al lettore delle alternative architetturali con annesse le possibili implementazioni.