805 resultados para Analisi Layout,simulazione,ottimizzazione,analisi dei flussi,magazzino
Resumo:
Il lavoro qui proposto si sviluppa nelle seguenti parti: una breve analisi dei fenomeni coinvolti, quali la risonanza e l'invarianza adiabatica, quindi sarà studiato il problema dell'estrazione adiabatica di un fascio mediante un modello hamiltoniano semplificato che simula l'effetto di un kick dipolare.
Resumo:
La rilevanza del vento come fattore chiave del terroir, in grado di influenzare la composizione delle uve e del vino, è stata sorprendentemente trascurata. Il lavoro di Tesi ha studiato, per la prima volta, l’influenza del vento sulla composizione delle bacche discutendone i possibili meccanismi d’azione sulla composizione aminoacidica e le conseguenti implicazioni enologiche. È stato valutato l’effetto su viti, della cv Sangiovese, del vento artificiale e della riduzione del vento rispetto un controllo caratterizzato dal vento naturale. Le prove sono state condotte in un vigneto situato a Pesaro a pochi chilometri dal Mare Adriatico, nel quale è stata effettuata una caratterizzazione dei venti e delle brezze. Sulle viti sono stati analizzati i parametri produttivi mentre sulle bacche campionate sono state effettuate le analisi dei principali parametri tecnologici e dei composti azotati (aminoacidi, ammine e ammonio). Le viti sottoposte al vento artificiale hanno manifestato un aumento della concentrazione dei composti azotati totali (aminoacidi e ammonio) rispetto al controllo. In particolare, i cambiamenti hanno coinvolto la concentrazione degli aminoacidi essenziali: lisina, treonina, triptofano, valina, leucina, isoleucina importanti per la loro implicazione nei processi fisiologici. Sulla base dei risultati ottenuti con il lavoro di Tesi e delle informazioni riportate in bibliografia è stato proposto un modello che illustra la possibile azione del vento sulla traslocazione di aminoacidi verso i grappoli. Il vento, oltre al noto effetto positivo sul microclima, ha prodotto un’incredibile influenza sulle bacche con rilevanti implicazioni agronomiche ed enologiche, quest’ultime correlate positivamente al processo fermentativo, alla possibilità di ridurre l’utilizzo di coadiuvanti enologici ed alla qualità dei vini ottenuti.
Resumo:
Ogni anno, circa il 95% delle morti per ustioni si verifica in contesti poveri di risorse e di queste più di un terzo sono rappresentate da bambini con meno di 4 anni. Per determinare le caratteristiche del dispositivo è stata necessaria una lunga fase preliminare alla progettazione, dove si è analizzata l’entità del problema delle ustioni e i trattamenti attualmente eseguiti. La principale causa di morte per ustioni è dovuta alle infezioni per cui la priorità è creare un ambiente pulito e disinfettato, dove il paziente può essere trattato o trasportato ad un ospedale specializzato. Successivamente a questa fase di analisi dei bisogni, si sono identificate le funzionalità del dispositivo: il controllo della temperatura e dell’umidità per contrastare l’ipotermia e l’ipermetabolismo, la ventilazione d’aria filtrata per prevenire le infezioni e il sistema di lavaggio per disinfettare le lesioni. Il dispositivo è stato progettato per bambini con statura inferiore ad un metro. Da qui si sono derivate le specifiche tecniche di progetto, su cui è stata svolta l’analisi dei rischi e progettato un sistema di mitigazione più o meno efficace per ottenere un rischio residuo accettabile. Terminata la progettazione generale, si è disegnato lo schema circuitale e si sono scelti i componenti elettronici per l’implementazione del prototipo. Il sistema deve esser fornito di sensori di temperatura, umidità, anidride carbonica, ed attuatori per regolare questi parametri, come l’elemento riscaldante, la ventola e la pompa idraulica. Per la realizzazione del prototipo si è utilizzata una schema Wemos e un sistema di comunicazione I2C. Successivamente alla costruzione della struttura e al cablaggio, si è implementato un modello in Simulink per testare i coefficienti del controllore PID per il sistema di termoregolazione. In fine, si sono eseguiti dei test per valutare il controllo della temperatura all’interno dello scompartimento del bambino, e si sono ottenuti buoni risultati.
Progetto di Sistemi di Regolazione dell'Alimentazione ad Alta Affidabilità per Processori Multi-Core
Resumo:
Quasi tutti i componenti del FIVR (regolatore di tensione Buck che fornisce l'alimentazione ai microprocessori multi-core) sono implementati sul die del SoC e quindi soffrono di problemi di affidabilità associati allo scaling della tecnologia microelettronica. In particolare, la variazione dei parametri di processo durante la fabbricazione e i guasti nei dispostivi di switching (circuiti aperti o cortocircuiti). Questa tesi si svolge in ambito di un progetto di ricerca in collaborazione con Intel Corporation, ed è stato sviluppato in due parti: Inizialmente è stato arricchito il lavoro di analisi dei guasti su FIVR, svolgendo un accurato studio su quelli che sono i principali effetti dell’invecchiamento sulle uscite dei regolatori di tensione integrati su chip. Successivamente è stato sviluppato uno schema di monitoraggio a basso costo in grado di rilevare gli effetti dei guasti più probabili del FIVR sul campo. Inoltre, lo schema sviluppato è in grado di rilevare, durante il tempo di vita del FIVR, gli effetti di invecchiamento che inducono un incorretto funzionamento del FIVR. Lo schema di monitoraggio è stato progettato in maniera tale che risulti self-checking nei confronti dei suoi guasti interni, questo per evitare che tali errori possano compromettere la corretta segnalazione di guasti sul FIVR.
Resumo:
Il 3D printing è presente da tempo in molti settori economici e da sempre ha nella sanità uno dei principali ambiti di applicazione. Durante il corso del presente lavoro sono state esaminate le principali applicazioni in campo sanitario con particolare focus sulla fase di planning in caso di chirurgia complessa. La pianificazione risulta essere la fase maggiormente impattante nel contesto più globale di gestione del paziente in quanto una maggior accuratezza nella visualizzazione del caso clinico consente di ottimizzare l’identificazione di un adeguato approccio chirurgico con ovvie conseguenti ripercussioni positive sulla totalità della degenza del paziente all’interno della struttura clinica ospitante. Nel dettaglio è stato valutato l’utilizzo di un innovativo protocollo di pre-planning e follow-up operatorio tramite la realizzazione di modelli stampati 3D a partire da immagini di diagnostica classica (TAC, MRI, 3Dscan) che hanno consentito di poter fornire allo specialista clinico di riferimento un prodotto che riproducendo perfettamente l’anatomia del soggetto (morfologia-proprietà fisiche del tessuto) ha consentito allo stesso un miglioramento delle usuali pratiche chirurgiche e terapeutiche in casi di elevata complessità in un arco temporale ristretto. I parametri utilizzati per la valutazione dei reali benefici dell’approccio esposto sono stati: tempi di pianificazione chirurgica e tempi di intervento all’interno di una più globale analisi dei costi associati. A fronte di un’indagine interna preventiva presso l’azienda ospedaliera ospitante sono stati designati i seguenti reparti come settori pilota: maxillofacciale, neurochirurgia e radiologia interventistica. Lo studio è stato svolto in collaborazione con l’ospedale M.Bufalini di Cesena in qualità di referente clinico e l’azienda Aid4Med Srl in qualità di azienda leader in pianificazione operatoria tramite ausili realizzati tramite tecniche di additive manufacturing.
Resumo:
In questa tesi si è cercato di trovare le soluzioni più efficaci a supporto delle questioni legate all'ipertensione di seguito descritte attraverso l'uso di tecniche riguardanti l'intelligenza artificiale e l'Internet of Things. Uno tra i compiti dei medici che si occupano di curare i malati di ipertensione è quello di elaborare protocolli per quanto riguarda la prevenzione e la cura di questa malattia, i quali vengono periodicamente aggiornati. Per supportare ciò, il primo progetto sviluppato è consistito in un'analisi dei dati sul dataset ottenuto a partire dall'elaborazione delle risposte date ai questionari che sono stati distribuiti durante la Giornata Mondiale dell'Ipertensione. A partire da questo, si è cercato di evidenziare la classe di persone che con più probabilità sono malate di ipertensione in modo tale che le linee guida aggiornate si concentrino maggiormente su costoro. La seconda questione affrontata è che non sempre le cure che vengono prescritte sono efficaci, talvolta a causa del medico, talvolta a causa del paziente. Si rende perciò necessario fornire ai pazienti degli strumenti che li aiutino direttamente nella cura della loro malattia. Devono avere anche lo scopo di aiutare il medico nel suo lavoro di monitoraggio periodico delle condizioni di salute del paziente, perché possa avere realmente il polso della situazione. Per fare questo, il secondo progetto ha riguardato lo sviluppo di un chatbot disponibile sulla piattaforma di messaggistica istantanea Telegram ad uso dei malati di ipertensione. Questo assistente virtuale permette loro di registrare le misurazioni di pressione che settimanalmente devono effettuare e ricorda loro di farlo quando passa troppo tempo dall'ultima misurazione. Il sistema permette inoltre di visualizzare medie e grafici delle misurazioni che sono state raccolte cosicché il medico può affidarsi ad uno strumento più evoluto del semplice libretto diario in cui il paziente annota tutte le misurazioni.
Resumo:
Lo studio ha indagato l’impatto delle reti di distribuzione idrica sulla qualità dell’acqua ed il supporto che in questo ambito possono fornire i modelli numerici nella redazione dei Piani di Sicurezza delle Acque (PSA) o Water Safety Plan (WSP). In una prima fase, esso è stato analizzato prendendo atto del percorso normativo europeo e nazionale e delle linee guida fornite dall’Organizzazione Mondiale di Sanità (OMS) e dall’Istituto Superiore di Sanità (ISS) che hanno portato i Piani di Sicurezza delle Acque nell’ambito del controllo delle acque potabili, tenendo conto, anche, dei vari soggetti coinvolti e delle problematiche generate dai cambiamenti climatici. In una seconda fase, si è analizzato il caso studio della rete di distribuzione idrica della città di Cesena, fornito dal gestore HERA S.p.A., modellando la qualità dell’acqua attraverso il programma EPANET 2.2. Questa analisi è stata sviluppata successivamente alla calibrazione del modello idraulico. Per gli aspetti che richiedono una georeferenziazione è stato utilizzato il programma open source QGIS, mentre per le analisi dei dati e le elaborazioni statistiche relative al campionamento del cloro residuo e delle portate immesse dalle fonti idriche è stato utilizzato il linguaggio R. E' stato quindi possibile creare mappe georeferenziate per diversi momenti della giornata del tempo di permanenza dell'acqua nella rete di distribuzione, delle concentrazioni di cloro residuo dell'acqua prelevata dagli utenti e analizzare il ruolo dei serbatoi di compenso.
Resumo:
Il quark-gluon plasma (QGP) è uno stato della materia previsto dalla cromodinamica quantistica. L’esperimento ALICE a LHC ha tra i suoi obbiettivi principali lo studio della materia fortemente interagente e le proprietà del QGP attraverso collisioni di ioni pesanti ultra-relativistici. Per un’esaustiva comprensione di tali proprietà, le stesse misure effettuate su sistemi collidenti più piccoli (collisioni protone-protone e protone-ione) sono necessarie come riferimento. Le recenti analisi dei dati raccolti ad ALICE hanno mostrato che la nostra comprensione dei meccanismi di adronizzazione di quark pesanti non è completa, perchè i dati ottenuti in collisioni pp e p-Pb non sono riproducibili utilizzando modelli basati sui risultati ottenuti con collisioni e+e− ed ep. Per questo motivo, nuovi modelli teorici e fenomenologici, in grado di riprodurre le misure sperimentali, sono stati proposti. Gli errori associati a queste nuove misure sperimentali al momento non permettono di verificare in maniera chiara la veridicità dei diversi modelli proposti. Nei prossimi anni sarà quindi fondamentale aumentare la precisione di tali misure sperimentali; d’altra parte, stimare il numero delle diverse specie di particelle prodotte in una collisione può essere estremamente complicato. In questa tesi, il numero di barioni Lc prodotti in un campione di dati è stato ottenuto utilizzando delle tecniche di machine learning, in grado di apprendere pattern e imparare a distinguere candidate di segnale da quelle di fondo. Si sono inoltre confrontate tre diverse implementazioni di un algoritmo di Boosted Decision Trees (BDT) e si è utilizzata quella più performante per ricostruire il barione Lc in collisioni pp raccolte dall’esperimento ALICE.
Resumo:
La semantica di RDF non permette di esprimere punti di vista contraddittori sullo stesso set di dati. Il problema consiste sostanzialmente nell’impossibilità di esprimere, in RDF, affermazioni il cui valore di verità sia sconosciuto, oppure in contrasto con quello di altre affermazioni, senza però asserirle, poichè questo le renderebbe indubbiamente vere. Nel corso del tempo, partendo dalla necessità di esprimere statement su altri statement, sono stati prodotti diversi approcci, nessuno dei quali sembra dare una risposta convincente all’esigenza che potremmo riassumere nel poter esprimere senza asserire. Nel presente lavoro, dopo un'analisi dei differenti approcci al problema, e dei relativi risultati, verranno presentate le "Congetture": una nuova proposta di estensione di RDF 1.1 che permette l’espressione di grafi il cui valore di verità è sconosciuto. Le Congetture sono una notazione per esprimere, senza asserire, named graphs in RDF, unitamente ad un meccanismo per affermarne la verità chiamato "collasso alla realtà". Una Congettura collassata è allo stesso tempo un grafo congetturale e un grafo asserito, ed è un modo semplice per gestire situazioni che, espresse inizialmente sotto forma di congetture, devono successivamente essere considerare vere. La proposta è costruita attorno a due concetti principali: 1) la Congettura: un concetto il cui valore di verità non è disponibile; 2) il collasso alla realtà: un meccanismo per asserire pienamente, in RDF, quando necessario, il valore di verità della Congettura. Verranno analizzati scenari avanzati quali Congetture di Congetture, Congetture di collassi e collassi a cascata. Verrà delineata la semantica formale completa della proposta, estendendo la simple interpretation di RDF 1.1, dimostrando che le Congetture sono pienamente compatibili con RDF. Le Congetture, con un'estensione minima del modello, aggiungono ad RDF la possibilità di esprimere, senza asserire, incertezze, ipotesi e dubbi.
Resumo:
Lo scopo del presente elaborato è ottenere dati grezzi dai maggiori offerwalls affinché si renda possibile elaborarli ed analizzarli per metterli a disposizione delle figure che si occupano di account management di un potenziale Ad Network quale è MyAppFree. Il primo Ad Network competitor a venire integrato nel presente tool di Business Intelligence è OfferToro, seguito da AdGem, il quale è attualmente in fase di integrazione. Prima di presentare i risultati del tool, a cui è stato dedicato l’ultimo capitolo dell’elaborato, sono stati approfonditi ed analizzati ampiamente i concetti fondamentali per la comprensione del progetto insieme agli strumenti utilizzati per la costituzione dell’architettura software. Successivamente, viene presentata l'architettura dei singoli microservizi oltre a quella sistemistica generale, la quale tratta come le parti che compongono iBiT, interagiscono tra loro. Infine, l’ultima parte della trattazione è dedicata al funzionamento del Front End Side per la figura account manager, che rappresenta l’utente finale del progetto. Unita alle analisi dei risultati ottenuti tramite una fase di benchmark testing, metrica che misura un insieme ripetibile di risultati quantificabili che serve come punto di riferimento perché prodotti e servizi possano essere confrontati. Lo scopo dei risultati dei test di benchmark è quello di confrontare le versioni presenti e future del software tramite i rispettivi benchmark.
Resumo:
La tesi ha come oggetto lo studio e la progettazione di un edificio industriale in carpenteria metallica localizzato a Bologna. Definizione ed analisi dei carichi con successiva progettazione e verifica del manto di copertura costituito da un doppio laminato in acciaio strutturale zincato preverniciato che racchiude uno strato di poliuretano espanso ad alta densità con funzione isolante. Progettazione e verifica degli arcarecci in base alla larghezza della fascia di loro pertinenza e ai carichi gravanti sulla copertura. Progettazione e verifica della trave reticolare calcolando singolarmente ed in modo distinto le prime 3 capriate come rappresentative di tutte le tipologie di combinazione di carico a seconda che gli arcarecci che gravano sulla capriata appoggino su 2 o 3 capriate. Progettazione e verifica delle aste della trave reticolare che in relazione all’estesa luce di interasse dei portali verrà realizzata in parte tramite l’adozione di saldature ed in parte tramite bullonature.Progettazione e verifica della baraccatura laterale con scelta del pacchetto coibentato, dell’arcareccio di gronda e di parete e dimensionamento del rompitratta. Progettazione e verifica delle colonne laterali sulle quali grava il peso della sovrastante trave reticolare in combinazione all’azione di taglio e momento provocato dal vento. Progettazione e verifica dei montanti di facciata, o false colonne. Verifica della colonna angolare che sarà soggetta ad uno stato di sollecitazione pluriassiale dovuta all’azione del vento. Progetto e verifica del controventamento di falda e dei controventamenti di parete per limitare il più possibile l’inflessione e lo sbandamento dei correnti superiori delle capriate. Verifica di tutti i collegamenti della capriata: per facilitare le operazioni di trasporto e montaggio si è scelto di dividere la capriata in due metà interamente saldate.Verifica del collegamento di base tra pilastro e plinto di fondazione. Progetto e verifica del plinto di fondazione.
Resumo:
Analisi dei documentari italiani contemporanei realizzati con lo smartphone, partendo dalla situazione del documentario in italia, la loro presenza sulle piattaforme streaming, gli effetti dello smartphone sullo spettatore e sulla sala cinematografica. Analizzato poi lo smartphone e le sue potenzialità di racconto, soprattutto in ambito italiano. Analizzati i casi di studio come il film Vedozero, i documentari partecipativi di Salvatores e Selfie di Agostino Ferrente.
Resumo:
La tesi è dedicata a una riflessione sugli adattamenti, in particolare al rapporto tra letteratura e cinema e alla costruzione di narrazioni che si rivolgono a pubblici transnazionali, caratteristiche dell'età globale. Nello specifico si analizzano prodotti audiovisivi e letterari Young Adult contemporanei. Tali opere sono indicative dei processi tramite i quali i prodotti culturali rielaborano aspetti problematici del processo di crescita. Lo studio si concentrerà dunque sull'idea di narrazione Young Adult come esempio di collaborazione virtuosa fra testi letterari e adattamenti cinematografici. Nonostante i limiti e le accuse di ripetitività, questi prodotti hanno offerto rappresentazioni complesse dell'identità di genere nella vita di personaggi adolescenti femminili, offrendo riflessioni sulle dinamiche sociali che investono tale identità. Infine, si è cercato di riflettere su come i consumatori, in particolare i fan, possono appropriarsi di questi contenuti narrativi per espanderli in fan fiction, fanart, video, fan film, cosplay, e una serie di altre pratiche partecipative.
Resumo:
Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.
Resumo:
Questa tesi si ispira a lavori precedentemente portati avanti da altri studenti e si pone il problema della possibilit\`a di riconoscere se uno smartphone \`e utilizzato da un utente mentre esso si trova alla guida di un'autovettura. In essa verranno presentati vari metodi per risolvere questo problema di Machine Learning, ovvero realizzazione di dataset per l'allenamento di modelli e creazione e allenamento di modelli stessi, dediti al riconoscimento di un problema di classificazione binaria e riconoscimento di oggetti tramite Object Detection. Il cercare di riconoscere se l'utente \`e alla guida o meno, avverr\`a tramite l'output della fotocamera frontale dello smartphone, quindi lavoreremo su immagini, video e frame. Arriveremo a riconoscere la posizione della persona rappresentata da questi fotogrammi tramite un modello di Object Detection, che riconosce cintura e finestrino e determina se sono appartenenti al sedile e alla posizione del conducente o del passeggero. Vedremo alla fine, attraverso un'attenta analisi dei risultati ottenuti su ben 8 video diversi che saranno divisi in molti frame, che si ottengono risultati molto interessanti, dai quali si pu\`o prendere spunto per la creazione di un importante sistema di sicurezza alla guida.