1000 resultados para Modelli di ottimizzazione,Ricerca Operativa,Posti letto,Degenza


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente elaborato propone un modello innovativo per la gestione della logistica distributiva nell’ultimo miglio, congiungendo l’attività di crowd-shipping con la presenza di Autonomous Vehicles, per il trasporto di prodotti all’interno della città. Il crowd-shipping utilizza conducenti occasionali, i quali deviano il loro tragitto in cambio di una ricompensa per il completamento dell’attività. Dall’altro lato, gli Autonomous Vehicles sono veicoli elettrici a guida autonoma, in grado di trasportare un numero limitato di pacchi e dotati di un sistema di sicurezza avanzato per garantire la fiducia nel trasporto. In primo luogo, nel seguente elaborato verrà mostrato il modello di ottimizzazione che congiunge i due attori principali in un unico ambiente, dove sono presenti un numero determinato di prodotti da muovere. Successivamente, poiché il problema di ottimizzazione è molto complesso e il numero di istanze valutabili è molto basso, verranno presentate due soluzioni differenti. La prima riguarda la metaeuristica chiamata Ant System, che cerca di avvicinarsi alle soluzioni ottime del precedente modello, mentre la seconda riguarda l’utilizzo di operatori di Local Search, i quali permettono di valutare soluzioni per istanze molto più grandi rispetto alla metaeuristica. Infine, i due modelli euristici verranno utilizzati per analizzare uno scenario che cerca di riprodurre una situazione reale. Tale scenario tenta di allocare strategicamente le risorse presenti e permette di dimostrare che gli Autonomous Vehicles riescono a supportare gli Occasional Drivers anche quando il numero di prodotti trasportabili è elevato. Inoltre, le due entità proposte riescono a soddisfare la domanda, garantendo un servizio che nel futuro potrebbe sostituire il tradizionale sistema di logistica distributiva last mile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il rilevamento di intrusioni nel contesto delle pratiche di Network Security Monitoring è il processo attraverso cui, passando per la raccolta e l'analisi di dati prodotti da una o più fonti di varia natura, (p.e. copie del traffico di rete, copie dei log degli applicativi/servizi, etc..) vengono identificati, correlati e analizzati eventi di sicurezza con l'obiettivo di rilevare potenziali tenativi di compromissione al fine di proteggere l'asset tecnologico all'interno di una data infrastruttura di rete. Questo processo è il prodotto di una combinazione di hardware, software e fattore umano. Spetta a quest'ultimo nello specifico il compito più arduo, ovvero quello di restare al passo con una realtà in continua crescita ed estremamente dinamica: il crimine informatico. Spetta all'analista filtrare e analizzare le informazioni raccolte in merito per contestualizzarle successivamente all'interno della realta che intende proteggere, con il fine ultimo di arricchire e perfezionare le logiche di rilevamento implementate sui sistemi utilizzati. È necessario comprendere come il mantenimento e l'aggiornamento di questi sistemi sia un'attività che segue l'evolversi delle tecnologie e delle strategie di attacco. Un suo svolgimento efficacie ed efficiente risulta di primaria importanza per consentire agli analisti di focalizzare le proprie risorse sulle attività di investigazione di eventi di sicurezza, ricerca e aggiornamento delle logiche di rilevamento, minimizzando quelle ripetitive, "time consuming", e potenzialmente automatizzabili. Questa tesi ha come obiettivo quello di presentare un possibile approccio ad una gestione automatizzata e centralizzata di sistemi per il rilevamento delle intrusioni, ponendo particolare attenzione alle tecnologie IDS presenti sul panorama open source oltre a rapportare tra loro gli aspetti di scalabilità e personalizzazione che ci si trova ad affrontare quando la gestione viene estesa ad infrastrutture di rete eterogenee e distribuite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene descritto uno studio preliminare su un velivolo ad ala rotante UAV (Unmanned Aerial Veichle) per supportare l'agricoltura di precisione. E' stato implementato in ambiente Matlab un semplice modello matematico per stimare la trazione del rotore principale in un elicottero. Successivamente, è stata presa in considerazone una meccanica commerciale per modellismo che potrebbe essere adottata per sveltire i tempi di sviluppo di questo UAV: la Graupner UNI-Mechanics 2000. E' stato, quindi, modellato al CAD un prototipo di struttura da realizzare tramite tecniche di Additive Manufacturing: questa parte è stata concepita per essere collegata alla meccanica dell'elicottero e può ospitare due taniche contenenti le sostanze da irrorare sulle colture. A livello di sviluppo futuro, si propone di applicare tecniche di ottimizzazione topologica alla struttura di collegamento per ottenere uno sfruttamento ottimale del materiale e ridurre le masse di questo componente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il primo modello matematico in grado di descrivere il prototipo di un sistema eccitabile assimilabile ad un neurone fu sviluppato da R. FitzHugh e J. Nagumo nel 1961. Tale modello, per quanto schematico, rappresenta un importante punto di partenza per la ricerca nell'ambito neuroscientifico delle dinamiche neuronali, ed è infatti capostipite di una serie di lavori che hanno puntato a migliorare l’accuratezza e la predicibilità dei modelli matematici per le scienze. L’elevato grado di complessità nello studio dei neuroni e delle dinamiche inter-neuronali comporta, tuttavia, che molte delle caratteristiche e delle potenzialità dell’ambito non siano ancora state comprese appieno. In questo lavoro verrà approfondito un modello ispirato al lavoro originale di FitzHugh e Nagumo. Tale modello presenta l’introduzione di un termine di self-coupling con ritardo temporale nel sistema di equazioni differenziali, diventa dunque rappresentativo di modelli di campo medio in grado di descrivere gli stati macroscopici di un ensemble di neuroni. L'introduzione del ritardo è funzionale ad una descrizione più realistica dei sistemi neuronali, e produce una dinamica più ricca e complessa rispetto a quella presente nella versione originale del modello. Sarà mostrata l'esistenza di una soluzione a ciclo limite nel modello che comprende il termine di ritardo temporale, ove tale soluzione non può essere interpretata nell’ambito delle biforcazioni di Hopf. Allo scopo di esplorare alcune delle caratteristiche basilari della modellizzazione del neurone, verrà principalmente utilizzata l’impostazione della teoria dei sistemi dinamici, integrando dove necessario con alcune nozioni provenienti dall’ambito fisiologico. In conclusione sarà riportata una sezione di approfondimento sulla integrazione numerica delle equazioni differenziali con ritardo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi mostreremo qual è l'impatto delle sezioni d'urto di cattura neutronica (n, γ) mediate con la distribuzione maxwelliana di energia (MACS), sull'evoluzione delle stelle giganti rosse. Per raggiungere questo obiettivo, è stata sviluppata una procedura automatizzata per calcolare le MACS, partendo da librerie di dati nucleari valutati. Le MACS così ottenute sono state inserite come parametri di input per il codice FUNS, il quale implementa modelli di evoluzione stellare. Vengono mostrati risultati circa le abbondanze isotopiche degli elementi sintetizzati nel processo-s ottenuti usando differenti librerie. Infine viene mostrato un esempio dell'impatto dei dati ottenuti all'esperimento n_TOF.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilizzo del Piano del Parto nelle strutture consultoriali e ospedaliere dell'area di Bologna. Analisi quali-quantitativa INTRODUZIONE: Il piano del parto è uno strumento di comunicazione scritto dalle donne in gravidanza in cui sono delineati i desideri e le preferenze della donna circa l’esperienza del travaglio e del parto. L’obiettivo di questa ricerca è quello di approfondire la conoscenza e il pensiero degli operatori, nella realtà dei consultori e delle sale parto dell’area di Bologna, in merito al piano del parto MATERIALI E METODI: Per rispondere alla domanda di ricerca sono stati realizzati due questionari online. Il primo questionario è stato somministrato alle ostetriche dei consultori per approfondire il momento della proposta e della redazione del piano del parto. Il secondo è stato somministrato alle ostetriche delle sale parto per comprendere le reazioni e il pensiero degli operatori in merito alla presentazione del piano del parto all’ingresso della donna in sala travaglio RISULTATI: Dalle risposte ai questionari è emerso che il piano del parto è uno strumento ampiamente utilizzato nei consultori, e che viene redatto in autonomia dalla donna. Le ostetriche delle sale parto tengono conto dei bisogni espressi nel piano del parto, ma non mancano delle critiche, legate principalmente alla disinformazione delle donne dovuta all’assenza di un professionista che funga loro da guida durante la sua stesura CONCLUSIONI: Da quanto è emerso dall’indagine si può affermare la necessità che le Ostetriche dedichino più tempo alla discussione del piano del parto con la donna durante il terzo trimestre. Un'altra riflessione può essere fatta rispetto agli incontri di accompagnamento alla nascita, anch’esso potrebbe essere un momento in cui una professionista ascolta e aiuta le donne a redigere un piano del parto consapevole. Sarebbe inoltre auspicabile diffondere l’importanza di questo strumento inserendolo, ad esempio, nella programmazione didattica del Corso di Laurea.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il neuroblastoma è un tumore solido pediatrico che si sviluppa nel sistema nervoso e risulta una significativa causa di morte infantile. Per avanzare nella conoscenza della sua patogenesi, l’ingegneria dei tessuti biologici, e più nello specifico la microfabbricazione dei biomateriali, ha favorito lo sviluppo di piattaforme microfluidiche utili per riprodurre il sistema neurovascolare umano. Piattaforme di questo tipo, chiamate chip, prevedono spesso l’utilizzo di idrogel. Nel mio elaborato viene presentato un lavoro recentemente pubblicato da Sokullu et al., nel quale gli autori presentano le prorietà del GelMA, un idrogel che mostra caratteristiche molto simili a quelle della matrice extracellulare naturale. Nel lavoro presentato, l’idrogel viene posto all’interno del microchip come base per la co-coltura di due linee cellulari umane, cellule di neuroblastoma e cellule endoteliali di vena ombelicale. Tramite test specifici si riscontra che il GelMA mostra appropriate proprietà biomeccaniche e determina nelle cellule in coltura una vitalità superiore all’80%. Il GelMA si rivela dunque una piattaforma utile per gli studi di colture cellulari 3D per lunghi periodi. Il lavoro analizzato prova inoltre che questa struttura permette di valutare eventi di invasione e migrazione di cellule tumorali suggerendo che il chip microfluidico possa essere impiegato per studi di ottimizzazione del dosaggio e delle modalità di somministrazione di farmaci chemioterapici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni la competitività nei mercati è notevolmente cresciuta, la complessità dei prodotti industriali è considerevolmente aumentata e quest’ultimi devono ora essere accuratamente ottimizzati sotto ogni aspetto. I prodotti, oltre ad avere dei cicli di vita più brevi, sono soggetti a un’alta personalizzazione e a una domanda variabile. Per rimanere competitive, le aziende manifatturiere devono possedere nuovi tipi di sistemi di produzione che siano convenienti e molto reattivi a tutti questi cambiamenti del mercato, quali i Sistemi di produzione riconfigurabili (Reconfigurable Manufacturing System - RMS). La particolarità di tali sistemi risiede nella capacità di cambiare rapidamente le loro strutture hardware e software, aspetto che li renda idonei a soddisfare la produzione moderna. Oltre agli aspetti produttivi, l’attenzione odierna è incentrata anche sulle tematiche ambientali legate al risparmio energetico durante i processi produttivi, alla riduzione delle quantità di CO2 emesse e alla sostenibilità ambientale. L’obiettivo di questa tesi è quello di proporre un modello di ottimizzazione multi-obiettivo che tenga conto sia della minimizzazione del tempo complessivo necessario alla movimentazione dei prodotti e alla riconfigurazione delle macchine, e sia della minimizzazione del consumo energetico. Tale modello è stato applicato ad un caso studio realistico che ha permesso di individuare un trade-off tecnico-ambientale individuando la frontiera di Pareto con punto di ottimo (134.6 min; 9346.3 kWh) che si discosta del 57% dal valore trovato ottimizzando la funzione tempo, e dello 0.76% dal valore ottenuto ottimizzando la funzione energia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato viene trattata l’analisi del problema di soft labeling applicato alla multi-document summarization, in particolare vengono testate varie tecniche per estrarre frasi rilevanti dai documenti presi in dettaglio, al fine di fornire al modello di summarization quelle di maggior rilievo e più informative per il riassunto da generare. Questo problema nasce per far fronte ai limiti che presentano i modelli di summarization attualmente a disposizione, che possono processare un numero limitato di frasi; sorge quindi la necessità di filtrare le informazioni più rilevanti quando il lavoro si applica a documenti lunghi. Al fine di scandire la metrica di importanza, vengono presi come riferimento metodi sintattici, semantici e basati su rappresentazione a grafi AMR. Il dataset preso come riferimento è Multi-LexSum, che include tre granularità di summarization di testi legali. L’analisi in questione si compone quindi della fase di estrazione delle frasi dai documenti, della misurazione delle metriche stabilite e del passaggio al modello stato dell’arte PRIMERA per l’elaborazione del riassunto. Il testo ottenuto viene poi confrontato con il riassunto target già fornito, considerato come ottimale; lavorando in queste condizioni l’obiettivo è di definire soglie ottimali di upper-bound per l’accuratezza delle metriche, che potrebbero ampliare il lavoro ad analisi più dettagliate qualora queste superino lo stato dell’arte attuale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mercato col tempo si è reso sempre più dinamico e ha richiesto alle aziende per sopravvivere una sempre maggiore capacità di innovare e adattarsi. Per rispondere a queste esigenze sono stati ridisegnati nuovi modelli di innovazione, il più famoso tra questi è l’Open Innovation. GELLIFY nasce nel 2016 per favorire l’Open Innovation in Italia, il suo stesso modello è basato sul concetto di Ecosistema e su una strategia win-win tra tutti i soggetti partecipanti: investitori, Start-ups, Corporate. Grazie a questa brillante idea l’azienda ha raggiunto in pochi anni più di 200 dipendenti con tre sedi (Italia, Middle East, Iberia) e un fatturato superiore agli 11 milioni di euro. Per sostenere la crescita e mantenersi agili, GELLIFY, ha dovuto effettuare dei grandi cambiamenti strutturali. Lo scopo di questo elaborato è analizzare GELLIFY combinando insieme la teoria dei microfondamenti con la stella di Galbraith rivisitata da Mckinsey (in cui il sistema premiante è stato incorporato dentro i processi ed è stato dato un ruolo a se stante alla tecnologia). Tutti i diversi elementi sono stati analizzati studiando ciò che l’azienda ha fatto o sta facendo in merito e soprattutto analizzando il percepito dei dipendenti a riguardo, raccolto attraverso l’utilizzo di interviste semistrutturate ai dipendenti e ad alcuni manager. Infine, tutti questi elementi sono stati collegati tra loro studiando come questi incidano sull’espressione delle capacità dinamiche degli individui facendo emergere una carenza nella gestione delle risorse umane dell’azienda. Per risolvere questo problema si è ipotizzato di restringere il campo della soluzione al processo di Onboarding, ritenuto un tassello fondamentale per l’employeer branding e per l’engagement dei dipendenti. La soluzione è stata descritta in maniera dettagliata considerando anche gli elementi presenti in GELLIFY che possono favorirne l’attuazione ma anche evidenziando i fattori critici e come gestirli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella presente tesi si è realizzato uno sviluppo di base per l'implementazione di un motore turboalbero aeronautico all’utilizzo ad idrogeno. La parte iniziale dell'elaborato descrive le caratteristiche e i benefici dell’utilizzo di questo combustibile innovativo e riporta, poi, le principali modifiche hardware, presenti in letteratura, necessarie per l’implementazione voluta su un motore fisico. Vengono, poi, illustrati i modelli di combustori necessari per un corretto funzionamento del sistema propulsivo, oltre all’eventuale necessità di uno scambiatore di calore. Nella parte centrale della tesi, invece, é descritta la conversione di un modello MatLab Simulink del motore Allison 250 c18, esplicando e documentando le principali modifiche apportate riguardo alla creazione delle mappe del modello dinamico utile a ricavare le caratteristiche termodinamiche del flusso in camera di combustione e all'uscita da essa. Viene inoltre mostrato il metodo di utilizzo degli script CEA forniti dalla NASA, valido per desumere le proprietà dei gas post combustione, oltre che per la creazione delle funzioni di interpolazioni. Sono state svolte, infine, diverse simulazioni, con lo scopo di ricavare le portate corrette di combustibile ed osservare gli andamenti dei parametri fondamentali del sistema propulsivo, come: le portate elaborate, le potenze generate, le temperature e le pressioni ottenute.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato mira a fornire una traduzione parziale dall'inglese all'italiano del romanzo Everything Here is Beautiful dell'autrice asiatico-americana Mira T. Lee, un'opera di narrativa che affronta il tema della salute mentale. L'obiettivo principale del libro è abbattere gli stereotipi sulle malattie mentali e suscitare l’empatia di chi lo legge. Lo scopo di questa ricerca è quello di indagare i problemi derivanti dalla traduzione dei romanzi e presentare una panoramica di diverse teorie della traduzione al fine di analizzare e spiegare nel dettaglio le scelte effettuate durante il processo di traduzione. Inoltre, la tesi si propone di esaminare il legame tra cultura, letteratura e rappresentazioni della malattia mentale in narrativa. Il lavoro è strutturato nel seguente ordine: il primo capitolo consiste in un'introduzione teorica alla traduzione dei romanzi e alla multiperspectivity, che è una caratteristica del libro di Lee. Il secondo capitolo è dedicato a una rassegna dei principali approcci storici e letterari alla malattia mentale. Il terzo capitolo descrive il contenuto e la struttura del libro fornendo un'analisi approfondita delle strategie traduttive applicate; contiene inoltre la biografia dell'autrice e una breve riflessione sulla letteratura asiatico-americana, cui segue la traduzione parziale. Il capitolo finale comprende un commento generale sul processo di traduzione e analizza nel dettaglio alcune scelte traduttive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’inquinamento olfattivo, negli ultimi anni, ha acquisito rilevanza a livello istituzionale e varie Regioni italiane hanno adottato Regolamenti e Linee Guida in materia. Queste, individuano gli studi di impatto olfattivo come strumenti per valutare la necessità di interventi correttivi, a seguito di simulazioni effettuate con modelli di dispersione atmosferica. In studi di primo livello uno dei modelli utilizzabili è quello gaussiano, con cui vengono ricercate le concentrazioni di inquinante massime possibili nelle situazioni di simulazione considerate, a scopo di screening. In questo elaborato gli output di queste simulazioni saranno confrontati e correlati con quelli ottenuti da un modello di dispersione non stazionario di tipo lagrangiano a particelle, utilizzato invece negli studi di impatto olfattivo di secondo livello. Le variabili studiate sono state la concentrazione odorigena di picco, confrontata con il 98° percentile delle concentrazioni di picco orario su base annua, e la relativa distanza dalla sorgente. Il setting sperimentale presume una singola sorgente puntiforme, di cui è stata variata l’altezza della ciminiera. Per tutte le altezze emissive considerate, ogni run di simulazione è stato effettuato con entrambi i modelli. Le operazioni di regressione eseguite sugli output così ottenuti, hanno evidenziato delle buone funzioni di correlazione per entrambe le variabili considerate, valutate attraverso il parametro R2. Questo permette un’analisi di impatto olfattivo di primo livello molto più accurata, poiché, utilizzando all’atto pratico un modello di tipo gaussiano, si possono stimare da esso i risultati che si sarebbero ottenuti con l’applicazione di quello lagrangiano, più complesso e in linea con quanto richiesto dalla normativa. Si ottengono, quindi, valutazioni di impatto più aderenti al territorio analizzato senza, tuttavia, la necessità di utenti con competenze tecniche specifiche e di strumenti informatici con potenze di calcolo molto elevate.