1000 resultados para Tecnologia additiva, modellazione per deposizione di filamento fuso
Resumo:
La tesi si pone l’obiettivo di indagare quelli che sono gli avvenimenti successivi all’unità d’Italia in uno dei simboli più importanti per la città di bologna, la Basilica di San Petronio. Lo studio si colloca come proseguimento e completamento di due tesi precedentemente compilate, andando ad approfondire sia il cambiamento dal punto di vista legislativo ma anche le azioni restaurative compiute nel periodo di riferimento preso in analisi. La prima fase di lavoro è stata caratterizzata dalla ricerca dei cambiamenti legislativi e normativi avvenuti dal 1860 che accompagnano la creazione della legge di tutela dei monumenti, varata agli inizi del ’900. La seconda fase è iniziata con una significativa ricerca archivistica e con una successiva analisi dei documenti che ha portato ad evidenziare i lavori di restauro sia all’esterno della basilica e che all’interno. Successivamente è stato svolto un approfondimento sui dibattiti relativi al completamento della facciata caratteristici di fine ‘800 e inizi ‘900, andando ad analizzare nei rispettivi concorsi, i principi e modalità di analisi e scelta della soluzione più adeguata. La terza fase ha riguardato il progetto per l’allestimento di una sala museale, che va a creare un proseguimento con quelle che sono le due sale museali già esistenti, ma non adeguate a creare un percorso tale da raccontare gli avvenimenti più recenti della fabbrica. Quindi con il progetto in esame si propone di aumentare lo spazio di allestimento, dedicando l’area interessata alla storia della basilica, ai restauri ottocenteschi, ai progetti per il completamento della facciata e ai recenti restauri eseguiti, lasciando il museo attuale alla conservazione degli oggetti sacri ed ecclesiastici. Inoltre, si è posto l’obiettivo di illuminare efficacemente l’intero ambiente, di conseguenza è stato progettato un impianto d’illuminazione tale da aumentare il confort visivo e permettere una semplice lettura e visualizzazione dei materiali esposti.
Resumo:
Negli ultimi decenni, il riscaldamento globale, causato dall’emissioni di gas serra in atmosfera, ha spinto i governi ad agire verso una progressiva sostituzione della generazione elettrica da fonte fossile con quella da rinnovabile. La non programmabilità di alcune fonti rinnovabili ha reso necessario l’utilizzo di tecnologie di accumulo dell’energia elettrica. In particolare, la produzione di idrogeno sembra essere una valida soluzione, ma il suo stoccaggio è uno dei principali ostacoli alla sua diffusione. Tra i diversi metodi di stoccaggio, quello più promettente è quello in idruri metallici. Affinché questa tecnologia diventi competitiva, è però necessario migliorare la cinetica della reazione di assorbimento/desorbimento dell’idrogeno nel sito metallico, attraverso una migliore gestione del calore prodotto/richiesto dalla reazione. In questo contesto, la presente tesi ha come obiettivo l’ottimizzazione del processo di carica di bombole agli idruri metallici, situate all’interno di una microgrid per la generazione e l’accumulo di energia da fotovoltaico, attraverso lo sviluppo di un sistema di controllo della temperatura delle bombole, e la realizzazione di prove sperimentali per valutare i reali benefici che esso comporta, in termini di capacità di stoccaggio e velocità di assorbimento dell’idrogeno. Dopo aver presentato il contesto energetico, lo stato dell’arte degli idruri metallici e la microgrid in cui sono situate le bombole, sono state descritte due versioni diverse del sistema ideato: una versione definitiva, che potrà essere realizzata per eventuali studi futuri, e una versione semplificata, che è stata poi realizzata in laboratorio. È stato descritto nel dettaglio il setup sperimentale, realizzato per svolgere le prove sul processo di carica della bombola, e sono stati poi riportati e confrontati i risultati ottenuti nel caso in cui non si è fatto uso del prototipo e quelli ottenuti nel caso in cui viene invece utilizzato per raffreddare la bombola.
Resumo:
Lo scopo dell’elaborato è quello di valutare una prima applicazione di intelligenza artificiale per svolgere manutenzione predittiva sui giunti installati nella rete di distribuzione, al fine di prevenirne i guasti. L’estensione delle reti in cavo è infatti in costante aumento per supportare lo sviluppo della rete elettrica e, per l’installazione di nuove linee o nella manutenzione di cavi, si fa uso di giunti, spesso soggetti a guasti e di difficile manutenzione. Risulta quindi importante svolgere manutenzione predittiva su questi componenti, al fine di prevenirne i guasti ed ottenere un risparmio in termini di tempo e denaro. A seguito un’attenta analisi della struttura dei giunti, dei loro modi di guasto e dei parametri caratteristici, si è proceduto alla generazione sintetica di un dataset contenente misure sui giunti e, sulla base di specifici criteri applicati a questi valori, l’informazione sulla presenza o sull’assenza di un guasto. Il dataset è stato poi utilizzato per la fase di apprendimento e di test di sei algoritmi di machine learning, selezionati a partire da considerazioni sullo stato dell’arte, valutato tramite una Revisione Sistematica della Letteratura (SLR). I risultati così ottenuti sono stati analizzati tramite specifiche metriche e da questo caso di studio sono emerse le elevate potenzialità delle tecnologie di intelligenza artificiale ai fini della prevenzione dei guasti nelle reti di distribuzione, soprattutto se considerata la semplicità implementativa degli algoritmi.
Resumo:
In questo elaborato si presenta una proposta di traduzione dallo spagnolo in italiano di tre capitoli del libro per ragazzi «Cuentos a patadas» dell’autore venezuelano José Urriola, edito con Ekaré ediciones nel 2014. Il tema portante è quello dello sport, in particolare il calcio, visto attraverso gli occhi del giovane protagonista David, che ne è un grande appassionato. La metafora calcistica fornisce però l’occasione per trattare temi di attualità, quali il razzismo e la xenofobia, ma anche per parlare di generosità, impegno e lavoro di squadra, fondamentali in ogni attività sportiva come nella vita. Dopo aver analizzato il testo di partenza, si riporta la proposta di traduzione e di seguito il commento delle scelte traduttive operate e delle strategie adottate.
Resumo:
Con le crescenti esigenze di personalizzazione, la capacità di prevedere con precisione la domanda di un numero sempre maggiore di prodotti è diventata una delle caratteristiche fondamentali che l’azienda manufatturiera moderna deve possedere. L’esigenza dunque di fornire una gamma di prodotti sempre più vasta, contenendo i costi associati alla realizzazione e alla giacenza dei prodotti finiti e contemporaneamente riducendo al minimo i tempi di risposta alla domanda, non viene pienamente soddisfatta da nessuna delle due politiche produttive che rappresentano i due approcci più classici, ossia le due strategie Make-To-Stock (MTS) e Make-To-Order (MTO). Per rispondere a questa esigenza di personalizzazione è stata proposta un’ulteriore politica produttiva nota come Delayed Product Differentiation (DPD) basata sul concetto delle piattaforme di prodotto, ossia delle strutture comuni a più prodotti diversi che, tramite l’aggiunta dei componenti, permettono di ottenere la gamma di prodotti finali richiesti. Il seguente lavoro di tesi si pone lo scopo di studiare, tramite un algoritmo ideato e sviluppato con l’ausilio del linguaggio di programmazione di Matlab, il caso di un sistema che già adotta l’approccio DPD per riuscire a trovare una soluzione al problema di estendere il catalogo iniziale degli articoli presenti, avendo una lista di prodotti nuovi da analizzare e dovendo scegliere quali aggiungere e quali invece eliminare, stabilendo come modificare le piattaforme per l’aggiunta di essi.
Resumo:
A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.
Resumo:
Nel panorama dell’automotive negli ultimi decenni si sono moltiplicate le normative nazionali, europee e mondiali per ridurre l'impatto socio-economico derivato dall’alto numero di sinistri stradali. Dall’analisi dei dati è emerso che una delle cause più impattanti dei sinistri è la distrazione: sono stati estrapolati i fattori che la inducono e raggruppati nelle macro-categorie di disattenzione, inattenzione, sonnolenza e stati mentali alterati. TESSA (Tecnology EEG Safety System Automotive) propone un approccio di assistenza alla guida che sfrutta le onde cerebrali del conducente, costantemente monitorate da un auricolare EEG, rileva fattori problematici e interviene con un’assistenza vocale considerando reazioni e necessità dell’utente, gravità della problematica e tempo di reazione necessario. Interagendo con il conducente TESSA sfrutta le tecnologie disponibili per comunicare il pericolo e condurre l’utente verso un’adeguata ripresa della guida. Il progetto è stato sviluppato considerando un target con un alto impatto sulla quantità dei sinistri stradali e che ricoprisse un notevole ruolo sociale: la fascia d’età più idonea su cui intervenire è 18-25 anni, un target ancora inesperto alla guida e adatto a recepire e promuovere lo scenario dell’automotive in veloce trasformazione verso un futuro sempre più orientato alla prevenzione e alla connettività. Seppur lo studio del concept sia rivolto principalmente a una popolazione giovanile TESSA è in grado di adattarsi a qualsiasi fascia d’età perché progettata per soddisfare le necessità del singolo conducente e della singola problematica, e può guidarlo nella ripresa del controllo della guida intervenendo al variare delle onde cerebrali. L’approccio di intervento mediato con l’assistenza vocale permette all’utente di mantenere il controllo del veicolo: TESSA non sostituisce il conducente ma mira a renderlo consapevole del rischio di pericolo e pronto a intervenire in prima persona in modo cosciente e adeguato.
Resumo:
Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,
Resumo:
Nel seguente lavoro di tesi sperimentale è stato svolto uno studio su film di poli(esametilen furanoato) additivato con filler antiossidanti estratti da una materia prima lignocellulosica, la corteccia di betulla. Tale studio ha lo scopo di incrementare le proprietà meccaniche e soprattutto conservative dei film di PHF per applicazioni nel campo del packaging alimentare. Il poli(esametilen furanoato) è un poliestere i cui monomeri di sintesi possono essere ottenuti da fonti rinnovabili, tale caratteristica lo rende completamente bio-based e di elevato interesse per l’ottenimento di materiali sostenibili. Nella fase iniziale dello studio è stato sintetizzato il polimero in esame tramite una sintesi di tipo solvent-free, in accordo con le attuali strategie sintetiche che mirano a ridurre l’impatto del solvente. Tale polimero è stato quindi caratterizzato tramite NMR e GPC. Sono state poi preparate quattro miscele di polimero additivato, due differenti composizioni per ciascuno dei due filler disponibili. Le miscele sono state preparate tramite solvent casting e in seguito stampate tramite pressofusione per ottenere dei film. È stata svolta una caratterizzazione dei film ottenuti, di tipo morfologica (SEM), termica (TGA e DSC), meccanica, comportamento barriera e con analisi antiossidanti. I filler hanno mostrato una buona miscibilità con l’omopolimero e non hanno causato interferenze nel comportamento termico. È stato osservato un miglioramento nella flessibilità dei film in tutte le miscele studiate e un aumento dell’allungamento a rottura nelle composizioni con quantità di filler pari al 5%. Le proprietà barriera si sono mantenute in linea con quelle dell’omopolimero e ancora migliori dei poliesteri attualmente in commercio. Infine, l’aggiunta del filler ha reso il film attivo per lo scavenging di radicali, valutato attraverso il test con DPPH, confermando il trasferimento delle proprietà antiossidanti dei filler alle miscele polimeriche.
Resumo:
In questa tesi viene trattata la problematica di determinare le migliori K soluzioni per due problemi di ottimizzazione, il Knapsack Problem 0-1 e lo Shortest Path Problem. Tali soluzioni possono essere impiegate all'interno di metodi di column generation per la risoluzione di problemi reali, ad esempio Bin Packing Problems e problemi di scheduling di veicoli ed equipaggi. Sono stati implementati, per verificarne sperimentalmente le prestazioni, nuovi algoritmi di programmazione dinamica, sviluppati nell’ambito di un programma di ricerca. Inizialmente, per entrambi i problemi, è stato descritto un algoritmo che determinasse le migliori K soluzioni per ogni possibile sottoproblema; partendo da uno zaino con capacità nulla, nel caso del Knapsack Problem 0-1, e dalla determinazione di un cammino dal vertice sorgente in se stesso per lo Shortest Path Problem, l’algoritmo determina le migliori soluzioni di sottoproblemi via via sempre più grandi, utilizzando le soluzioni costruite per gli stati precedenti, fino a ottenere le migliori soluzioni del problema globale. Successivamente, è stato definito un algoritmo basato su un approccio di ricorsione backward; in questo caso si utilizza una funzione ricorsiva che, chiamata a partire dallo stato corrispondente al problema globale, viene richiamata solo sugli stati intermedi strettamente necessari, e per ognuno di essi non vengono determinate soluzioni superflue.
Resumo:
L’obesità ad oggi è considerata un’epidemia globale ed è tutt’ora in rapido aumento insieme a tutte le comorbidità ad essa associate. Il gold standard per il trattamento di questa patologia è la terapia dietetico-comportamentale. Tuttavia, essa frequentemente si rivela non sufficiente nei quadri di obesità severa; in questo caso è possibile valutare la farmacoterapia, seppur sempre accostata alle indicazioni alimentari. Un’altra opzione è la chirurgia bariatrica, ritenuta una delle più efficaci forme di terapia per la cura dell’obesità severa. Molto importante per l’inquadramento clinico del paziente è la rilevazione delle abitudini alimentari, eseguita tramite diversi strumenti, quali l’Indagine Alimentare, il Recall delle 24 ore e il Diario Alimentare. Recentemente sono stati formulati diversi Food Frequency Questionnaires, ovvero questionari compilati direttamente del paziente con l’obiettivo di indagare sul consumo abituale dei principali prodotti alimentari suddivisi in categorie. Obiettivo: l’obiettivo di questo studio è stato quello di valutare l’appropriatezza di un Food Frequency Questionnaire composto da un totale di 7 categorie e 31 prodotti alimentari nella rilevazione delle abitudini di una popolazione di pazienti con diagnosi di obesità. Metodo: sono stati contattati telefonicamente 70 pazienti, suddivisi in due sottogruppi, ai quali sono state fornite istruzioni per la compilazione di un Diario Alimentare di tre giorni e del Food Frequency Questionnaire. Risultati: è stata considerata accettabile una differenza inferiore al 10% tra i valori derivanti dai due strumenti: su un campione totale di 52 pazienti, tale differenza è stata rilevata in 35 soggetti per quanto riguarda l’intake energetico, in 17 pazienti per i glucidi, in 7 partecipanti per l’apporto di proteine e in 13 casi per i lipidi. Conclusioni: i risultati confermano l’ipotesi che il Food Frequency Questionnaire fornisca valutazioni sovrapponibili a quelle derivanti dal Diario Alimentare.
Resumo:
Il neuroblastoma è un tumore solido pediatrico che si sviluppa nel sistema nervoso e risulta una significativa causa di morte infantile. Per avanzare nella conoscenza della sua patogenesi, l’ingegneria dei tessuti biologici, e più nello specifico la microfabbricazione dei biomateriali, ha favorito lo sviluppo di piattaforme microfluidiche utili per riprodurre il sistema neurovascolare umano. Piattaforme di questo tipo, chiamate chip, prevedono spesso l’utilizzo di idrogel. Nel mio elaborato viene presentato un lavoro recentemente pubblicato da Sokullu et al., nel quale gli autori presentano le prorietà del GelMA, un idrogel che mostra caratteristiche molto simili a quelle della matrice extracellulare naturale. Nel lavoro presentato, l’idrogel viene posto all’interno del microchip come base per la co-coltura di due linee cellulari umane, cellule di neuroblastoma e cellule endoteliali di vena ombelicale. Tramite test specifici si riscontra che il GelMA mostra appropriate proprietà biomeccaniche e determina nelle cellule in coltura una vitalità superiore all’80%. Il GelMA si rivela dunque una piattaforma utile per gli studi di colture cellulari 3D per lunghi periodi. Il lavoro analizzato prova inoltre che questa struttura permette di valutare eventi di invasione e migrazione di cellule tumorali suggerendo che il chip microfluidico possa essere impiegato per studi di ottimizzazione del dosaggio e delle modalità di somministrazione di farmaci chemioterapici.
Resumo:
Il Modello Standard è attualmente la teoria che meglio spiega il comportamento della fisica subnucleare, includendo la definizione delle particelle e di tre delle quattro forze fondamentali presenti in natura; risulta però una teoria incompleta sulle cui integrazioni i fisici stanno lavorando in diverse direzioni: uno degli approcci più promettenti nella ricerca di nuova fisica risulta essere quello delle teorie di campo efficaci. Il vertice di interazione del processo di produzione di coppie di quark top dello stesso segno a partire da protoni è fortemente soppresso nel Modello Standard e deve quindi essere interpretato con le teorie di campo efficaci. Il presente elaborato si concentra su questo nuovo approccio per la ricerca di quark top same-sign e si focalizza sull’utilizzo di una rete neurale per discriminare il segnale dal fondo. L’obiettivo è capire se le prestazioni di quest’ultima cambino quando le vengono fornite in ingresso variabili di diversi livelli di ricostruzione. Utilizzando una rete neurale ottimizzata per la discriminazione del segnale dal fondo, le si sono presentati tre set di variabili per l’allenamento: uno di alto livello, il secondo strettamente di basso livello, il terzo copia del secondo con aggiunta delle due variabili principali di b-tagging. Si è dimostrato che la performance della rete in termini di classificazione segnale-fondo rimane pressoché inalterata: la curva ROC presenta aree sottostanti le curve pressoché identiche. Si è notato inoltre che nel caso del set di variabili di basso livello, la rete neurale classifica come input più importanti gli angoli azimutali dei leptoni nonostante questi abbiano distribuzioni identiche tra segnale e fondo: ciò avviene in quanto la rete neurale è in grado di sfruttare le correlazioni tra le variabili come caratteristica discriminante. Questo studio preliminare pone le basi per l’ottimizzazione di un approccio multivariato nella ricerca di eventi con due top dello stesso segno prodotti a LHC.
Resumo:
La radioterapia è una terapia medica molto utilizzata in campo oncologico. I diversi tipi di radiazione e di tecniche permettono di trattare, con diversi fini, una vasta gamma di neoplasie. Secondo i dati dell’AIRO, l’Associazione Italiana di Radioterapia e Oncologia clinica, nel 2020 sono stati trattati con la radioterapia circa 100mila pazienti in Italia, che conta 183 centri di radioterapia tra pubblici e privati, cioè circa 3 centri per milione di abitanti. La Società Europea di Radioterapia Oncologica, basandosi sullo studio ESTRO-HERO del 2014, suggerisce come parametro di confronto a livello nazionale o internazionale il numero di apparecchiature di radioterapia per milione di abitanti, e le Direttive Europee ne raccomandano un valore minimo di 7 unità. In questo elaborato, espongo l’evoluzione della radioterapia tramite la presentazione delle sue diverse tipologie, per poi concentrarmi sulla irradiazione corporea totale (Total Body Irradiation – TBI) nel caso studio della leucemia linfoblastica acuta (LLA). Il Capitolo 1 introduce la radioterapia e la sua principale suddivisione in esterna e interna, con i relativi sottogruppi. Viene poi spiegato come si valuta il volume bersaglio e vengono presentati il personale e le fasi del trattamento. Il Capitolo 2 introduce alla leucemia e alla LLA. Viene poi spiegato il trattamento di trapianto e quello di condizionamento. Infine, espongo la tecnica della TBI, le sue prestazioni ed i suoi limiti. Nelle conclusioni e future direzioni, valuto il problema della tossicità ed espongo le principali evoluzioni nell’uso della TBI.
Resumo:
Prevedere quanto e quando un cliente richiederà un determinato prodotto è da sempre una delle sfide più complicate che un’azienda deve affrontare. Una delle metodologie più utilizzate è il processo di Sales and Operations, costituito da 5 fasi. L’obiettivo di questo elaborato è illustrare la creazione del processo applicata a una famiglia di prodotti che andrà a sostituire molteplici altri codici prodotti dell’azienda Sherwin-Williams. Per la creazione si è interagito con varie funzioni della multinazionale, tra cui l’ufficio di supply chain, l’ufficio vendite e i vari uffici produzione degli stabilimenti europei. La creazione del processo si articola nelle 5 fasi classiche quindi: raccolta dati sulla domanda futura in cui sono stati individuati i consumi interni e le vendite ai clienti terzi dei prodotti; la creazione del piano di domanda e del piano di produzione iniziale, approvazione produzione delle quantità concordate e definizione delle politiche di gestione sia delle strutture clienti che dello stabilimento produttivo, infine, la fase di miglioramento e monitoraggio del processo. Nell’ultima fase tra le migliorie al processo si ridurrà il numero di codici univoci da gestire del 34%, verrà individuata la zona ottimale per l’ubicazione di un magazzino distributivo e si analizzerà l’aderenza alla schedulazione presso il reparto liquidi dello stabilimento con l’obiettivo di ridurre il Lead Time di produzione.