1000 resultados para Modelli di ottimizzazione,Ricerca Operativa,Posti letto,Degenza


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fibrillazione atriale (FA) è la forma di aritmia cardiaca più diffusa nella pratica clinica. Attualmente, sono più di 30 milioni le persone affette da FA e si prevede una forte crescita di tale numero, conseguentemente al progressivo invecchiamento della popolazione. Ad oggi, la terapia anticoagulante orale è la principale strategia impiegata per la prevenzione di ictus ischemico. Nonostante l’efficacia degli anticoagulanti, un numero rilevante di pazienti non possono assumerli, a causa di un aumentato rischio emorragico e della pericolosa interazione con altri farmaci. È stato dimostrato che nel 90% dei casi la formazione dei trombi intracardiaci in pazienti con FA avviene in un punto ben preciso dell’atrio sinistro, ossia nell’auricola. Ciò è dovuto al fatto che essa, avendo una particolare morfologia, in condizioni non fisiologiche (emodinamica rallentata), tende a favorire la stasi del sangue al suo interno. Di conseguenza, la chiusura meccanica dell’auricola è emersa come alternativa clinica alla prevenzione farmacologica. I risultati relativi a recenti trials hanno suggerito che la chiusura percutanea della LAA attraverso l’impianto di opportuni occlusori è una terapia sicura, con un’efficacia non inferiore alla terapia di anticoagulanti orali nella prevenzione dell’ictus. L’obiettivo di questo elaborato di tesi è valutare in simulazione l’effetto dell’occlusione dell’auricola sinistra e di un eventuale dislocazione del dispositivo sulla fluidodinamica atriale in pazienti affetti da FA. Sono stati realizzati modelli 3D che simulano sia il risultato della procedura di LAAO con i dispositivi Amulet e Watchman, sia l’effetto della dislocazione dell’occlusore. Successivamente, sono state effettuate le simulazioni fluidodinamiche CFD sui modelli di atrio intero, sui modelli occlusi (privi di auricola) e sui modelli parzialmente occlusi (dislocazione Amulet) per studiare e valutare i parametri fluidodinamici (velocità, vorticità e stasi).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente lavoro analizza l’influenza che il biochar ha nel ciclo dell’azoto nei suoli, in particolare in riferimento alla possibilità di diminuire il fenomeno di lisciviazione dei nitrati dato il continuo aumento in agricoltura dell’uso di fertilizzanti azotati. La scelta di questo tipo di ammendante è dovuta alle sue ampie potenzialità d’impiego e si pone in un percorso di economia circolare con la valorizzazione delle biomasse di scarto. Il lavoro si divide in un’approfondita ricerca bibliografica con elaborazione critica delle informazioni e una parte sperimentale. Si sono analizzate le interazioni che il biochar ha sui vari processi che compongono il ciclo dell’azoto. Sono stati riportati e discussi i principali metodi di determinazione delle capacità adsorbenti del biochar oltre ad un’analisi e una descrizione dei più comuni modelli di isoterme di adsorbimento. Si è testata la capacità adsorbente, tramite test di screening in batch, di sette tipi di biochar che presentavano origine e sintesi differenti. I biochar hanno presentato adsorbimenti molto modesti nei confronti dei nitrati evidenziando solo una diminuzione della quantità di nitrati rilasciati dal biochar stesso. Per quanto concerne l’ammonio, invece, i biochar hanno presentato percentuali di adsorbimento tra il 60-70% con un massimo del 80%.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il catalizzatore studiato per questa reazione è principalmente l’ossido di titanio (TiO2) per la sua disponibilità. Le modifiche principali riguardano l’inserimento nella struttura della TiO2 di altri elementi, principalmente N, e la deposizione di particelle di metalli nobili come co-catalizzatori. In questo elaborato vengono studiate una serie di sintesi per via microemulsione (ME). L’introduzione di una base (NaOH o NH4OH) è stata utilizzata per produrre delle modifiche nella morfologia dei catalizzatori. Alcuni parametri operativi delle sintesi, quali: tempo di agitazione del precursore, agente neutralizzante e trattamenti a riflusso sono stati studiati. Ottimizzando le sintesi in ME è stato possibile ottenere polveri di TiO2 con densità inferiore al campione di riferimento prodotto per ME, con valori inferiori a 1 g/mL. Le dimensioni delle particelle sono state osservate e risultano anch’esse inferiori, solitamente sotto 10 nm. L’area superficiale delle polveri è di solito superiore a 100 m2/g. Ulteriori modifiche introdotte riguardano la presenza di N nella struttura della TiO2, che ha permesso un miglioramento nell’assorbimento di luce nello spettro visibile. Inoltre, sfruttando la versatilità delle ME è stato possibile mettere a punto delle sintesi che permettono la precipitazione di specie di Ag sotto forma di nanoparticelle, della dimensione di 1 nm. I catalizzatori sono poi stati testati in fotocatalisi eterogenea, usando condizioni pressione atmosferica, temperatura di 30°C e utilizzando come solvente acqua. L’attività catalitica dei campioni è risultata promettente e si pensa che ulteriori studi di ottimizzazione dei parametri delle sintesi possano portare a successivi miglioramenti. I catalizzatori prodotti per neutralizzazione hanno mostrato una maggiore reattività e tra questi, quello trattato con NaOH, per effetto sinergico della densità e delle dimensioni dei cristalliti, ha esibito un’attività superiore agli altri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dopo lo sviluppo dei primi casi di Covid-19 in Cina nell’autunno del 2019, ad inizio 2020 l’intero pianeta è precipitato in una pandemia globale che ha stravolto le nostre vite con conseguenze che non si vivevano dall’influenza spagnola. La grandissima quantità di paper scientifici in continua pubblicazione sul coronavirus e virus ad esso affini ha portato alla creazione di un unico dataset dinamico chiamato CORD19 e distribuito gratuitamente. Poter reperire informazioni utili in questa mole di dati ha ulteriormente acceso i riflettori sugli information retrieval systems, capaci di recuperare in maniera rapida ed efficace informazioni preziose rispetto a una domanda dell'utente detta query. Di particolare rilievo è stata la TREC-COVID Challenge, competizione per lo sviluppo di un sistema di IR addestrato e testato sul dataset CORD19. Il problema principale è dato dal fatto che la grande mole di documenti è totalmente non etichettata e risulta dunque impossibile addestrare modelli di reti neurali direttamente su di essi. Per aggirare il problema abbiamo messo a punto nuove soluzioni self-supervised, a cui abbiamo applicato lo stato dell'arte del deep metric learning e dell'NLP. Il deep metric learning, che sta avendo un enorme successo soprattuto nella computer vision, addestra il modello ad "avvicinare" tra loro immagini simili e "allontanare" immagini differenti. Dato che sia le immagini che il testo vengono rappresentati attraverso vettori di numeri reali (embeddings) si possano utilizzare le stesse tecniche per "avvicinare" tra loro elementi testuali pertinenti (e.g. una query e un paragrafo) e "allontanare" elementi non pertinenti. Abbiamo dunque addestrato un modello SciBERT con varie loss, che ad oggi rappresentano lo stato dell'arte del deep metric learning, in maniera completamente self-supervised direttamente e unicamente sul dataset CORD19, valutandolo poi sul set formale TREC-COVID attraverso un sistema di IR e ottenendo risultati interessanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A differenza di quanto avviene nel commercio tradizionale, in quello online il cliente non ha la possibilità di toccare con mano o provare il prodotto. La decisione di acquisto viene maturata in base ai dati messi a disposizione dal venditore attraverso titolo, descrizioni, immagini e alle recensioni di clienti precedenti. É quindi possibile prevedere quanto un prodotto venderà sulla base di queste informazioni. La maggior parte delle soluzioni attualmente presenti in letteratura effettua previsioni basandosi sulle recensioni, oppure analizzando il linguaggio usato nelle descrizioni per capire come questo influenzi le vendite. Le recensioni, tuttavia, non sono informazioni note ai venditori prima della commercializzazione del prodotto; usando solo dati testuali, inoltre, si tralascia l’influenza delle immagini. L'obiettivo di questa tesi è usare modelli di machine learning per prevedere il successo di vendita di un prodotto a partire dalle informazioni disponibili al venditore prima della commercializzazione. Si fa questo introducendo un modello cross-modale basato su Vision-Language Transformer in grado di effettuare classificazione. Un modello di questo tipo può aiutare i venditori a massimizzare il successo di vendita dei prodotti. A causa della mancanza, in letteratura, di dataset contenenti informazioni relative a prodotti venduti online che includono l’indicazione del successo di vendita, il lavoro svolto comprende la realizzazione di un dataset adatto a testare la soluzione sviluppata. Il dataset contiene un elenco di 78300 prodotti di Moda venduti su Amazon, per ognuno dei quali vengono riportate le principali informazioni messe a disposizione dal venditore e una misura di successo sul mercato. Questa viene ricavata a partire dal gradimento espresso dagli acquirenti e dal posizionamento del prodotto in una graduatoria basata sul numero di esemplari venduti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio di modelli teorici e matematici della memoria semantica ricopre un ruolo importante nelle neuroscienze cognitive. I modelli neuro-computazionali sviluppati negli ultimi decenni vengono impiegati per spiegare e simulare come le informazioni recepite dall’esterno vengono memorizzate e successivamente utilizzate. In questo elaborato si sviluppa un modello di rete semantica per il riconoscimento di concetti, definiti come insieme di caratteristiche. Fondamentale è il ruolo assunto dalle diverse proprietà, che sono state suddivise fra salienti e marginali, distintive e condivise. I concetti presi in considerazione con le rispettive feature, fanno parte di un ampio data set fornito dalla Dott.ssa Catricalà. La rete sviluppata rientra tra i modelli di massa neuronale che considera quattro popolazioni di neuroni: piramidali, inter-neuroni eccitatori, inter-neuroni inibitori lenti e inter-neuroni inibitori veloci. Il modello sviluppato si basa sullo studio del professor Ursino et al. e utilizza oscillatori in banda gamma. Tramite sincronizzazione di queste oscillazioni è possibile memorizzare concetti e successivamente recuperarli, mantenendoli in memoria simultaneamente. Il richiamo di più concetti contemporaneamente avviene tramite desincronizzazione delle oscillazioni ad opera di un inibitore globale, modellato tramite funzione a gradino. Per modellare l’apprendimento della rete è stata utilizzata la regola di Hebb, sfruttando soglie pre e post-sinaptiche differenti così da costruire sinapsi asimmetriche che permettono una differenziazione delle feature.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A metà del secolo scorso in Italia un elevato numero di edifici in cemento armato con struttura a telaio è stata realizzata, in accordo con la Normativa dell’epoca, per resistere unicamente alle azioni verticali presentando un’elevata vulnerabilità nei riguardi delle azioni sismiche. I cambiamenti apportati dalle più recenti Normative volgono l’attenzione alla problematica della vulnerabilità sismica degli edifici esistenti, rendendo l’analisi del comportamento di questi ultimi un tema di grande rilevanza ed attualità. In questo contesto, viene selezionato un edificio esistente per il quale viene valutata la capacità sismica mediante una metodologia analitica denominata SLaMA, e vengono stimate le perdite economiche sismiche utilizzando la metodologia del Sisma Bonus Italiano. L’utilizzo di metodologie di calcolo semplificate rappresenta al giorno d’oggi una robusta alternativa da utilizzare in fase di valutazione progettuale preliminare. Le operazioni eseguite per l’edificio esistente vengono poi ripetute anche per due differenti opzioni di rinforzo strutturale proposte per lo stesso. I risultati ottenuti in termini di capacità sono stati posti a confronto con quelli ricavati dalla modellazione ad elementi finiti su software di calcolo per validare il metodo semplificato, mentre i risultati derivati dal calcolo delle perdite economiche sono stati confrontati con quelli ricavati mediante una metodologia più raffinata di analisi per verificare la corrispondenza e l’accuratezza del parametro di perdita calcolato (PAM). Infine, vengono esposti i risultati ottenuti per gli edifici analizzati proponendo dei confronti fra gli stessi, in modo da individuare la scelta progettuale più conveniente sia in merito alla performance sismica dell’edificio che alla riduzione della perdita economica attesa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Combinatorial optimization problems have been strongly addressed throughout history. Their study involves highly applied problems that must be solved in reasonable times. This doctoral Thesis addresses three Operations Research problems: the first deals with the Traveling Salesman Problem with Pickups and Delivery with Handling cost, which was approached with two metaheuristics based on Iterated Local Search; the results show that the proposed methods are faster and obtain good results respect to the metaheuristics from the literature. The second problem corresponds to the Quadratic Multiple Knapsack Problem, and polynomial formulations and relaxations are presented for new instances of the problem; in addition, a metaheuristic and a matheuristic are proposed that are competitive with state of the art algorithms. Finally, an Open-Pit Mining problem is approached. This problem is solved with a parallel genetic algorithm that allows excavations using truncated cones. Each of these problems was computationally tested with difficult instances from the literature, obtaining good quality results in reasonable computational times, and making significant contributions to the state of the art techniques of Operations Research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi è un’analisi storico-concettuale del pensiero politico di Thomas Robert Malthus. Si vedrà in particolar modo come la crisi rivoluzionaria tardo settecentesca, cui si sommano i rivolgimenti economici e sociali connessi alla nascita della produzione manifatturiera, spinge l’autore a ripensare alcuni concetti fondamentali del pensiero politico moderno. Popolazione, società, governo e costituzione sono gli oggetti principali di questa ricerca: il principio di popolazione è la legge scientifica cui il reverendo Malthus ricorre per elaborare le proprie teorie sul governo, il quale deve sempre porsi come scopo quello di preservare – o migliorare – la costituzione della società. La presenza politica di masse di poveri in società conduce l’autore alla ricerca di un principio scientifico in grado di fondare nella natura le gerarchie e la disuguaglianza da più parti contestate; in quanto dipendono da «leggi fondamentali», per Malthus le gerarchie e la disuguaglianza che da esse deriva sono un tratto costitutivo della società. La teologia, la morale e l’economia politica sono scienze di cui l’autore si serve per argomentare intorno all’incontestabile natura della povertà e della disuguaglianza tra i sessi, e per affermare le modalità di una loro proficua amministrazione. In India e in Irlanda, poi, le condizioni naturali di cui il principio di popolazione suggella la necessità si scoprono soggette a sfide del tutto originali rispetto a quelle osservabili in Inghilterra. Lì, allora, lo sforzo malthusiano di costruire una scienza all’altezza della complessità dell’oggetto sociale rivela con somma chiarezza la propria ambizione di naturalizzare la politica e garantire le condizioni di disciplinamento degli individui al lavoro e alla subordinazione. Il dispositivo di naturalizzazione che giace al cuore del sistema malthusiano rappresenta la cifra del problema Malthus che apre questa ricerca e ne scandisce i momenti salienti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hadrontherapy employs high-energy beams of charged particles (protons and heavier ions) to treat deep-seated tumours: these particles have a favourable depth-dose distribution in tissue characterized by a low dose in the entrance channel and a sharp maximum (Bragg peak) near the end of their path. In these treatments nuclear interactions have to be considered: beam particles can fragment in the human body releasing a non-zero dose beyond the Bragg peak while fragments of human body nuclei can modify the dose released in healthy tissues. These effects are still in question given the lack of interesting cross sections data. Also space radioprotection can profit by fragmentation cross section measurements: the interest in long-term manned space missions beyond Low Earth Orbit is growing in these years but it has to cope with major health risks due to space radiation. To this end, risk models are under study: however, huge gaps in fragmentation cross sections data are currently present preventing an accurate benchmark of deterministic and Monte Carlo codes. To fill these gaps in data, the FOOT (FragmentatiOn Of Target) experiment was proposed. It is composed by two independent and complementary setups, an Emulsion Cloud Chamber and an electronic setup composed by several subdetectors providing redundant measurements of kinematic properties of fragments produced in nuclear interactions between a beam and a target. FOOT aims to measure double differential cross sections both in angle and kinetic energy which is the most complete information to address existing questions. In this Ph.D. thesis, the development of the Trigger and Data Acquisition system for the FOOT electronic setup and a first analysis of 400 MeV/u 16O beam on Carbon target data acquired in July 2021 at GSI (Darmstadt, Germany) are presented. When possible, a comparison with other available measurements is also reported.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente indagine di ricerca si concentra sulle opere storiografiche di Senofonte, focalizzandosi in modo particolare su quelle figure minori presenti in esse, che mostrano caratteristiche o comportamenti tali da renderle indegne del ruolo di governo che occupano. Da tempo, infatti, la critica si è focalizzata nell’individuare e analizzare quei personaggi che rappresentano il perfetto modello di leadership descritto da Senofonte e offerto all’imitazione del suo pubblico. Tuttavia, ben poco si è detto riguardo le figure opposte, quei paradigmi e contrario, destinati non tanto ad essere imitati, ma utili, piuttosto, a rappresentare gli errori che un lettore deve evitare e a far risaltare ancor di più i modelli di leadership illuminata e capace che sono il reale focus dell’attenzione di Senofonte in diverse opere. Se, infatti, è evidente la volontà e le caratteristiche paideutiche del corpus senofonteo, destinato ad insegnare le qualità, politiche ma ancor di più morali, necessarie per ricoprire un ruolo di governo e guida; sembrerebbe logico ipotizzare che questo fine didattico delle opere di Senofonte possa trovare realizzazione anche nelle figure negative, il cui ruolo è sottolineato ed evidenziato dall’autore attraverso strategie letterarie sempre nuove.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Museo Monumento al Deportato politico e razziale nel Castello dei Pio a Carpi (MO), a pochi passi dal Campo nazionale della deportazione razziale e politica di Fossoli, è il risultato di un concorso pubblico nazionale bandito nel 1963, frutto dell’impegno civile tra istituzioni, associazioni e intellettuali. Tra questi il gruppo BBPR il quale, in collaborazione con l’artista Renato Guttuso, si aggiudicheranno la vittoria del concorso. Il progetto vincitore, pur apportando alcune modifiche in fase di realizzazione, manterrà la sua impostazione antiretorica, utilizzando un linguaggio rigoroso e astratto. Partendo dalle caratteristiche che rendono quest’opera una struttura unica nel suo genere, obiettivo principale di questa ricerca di Dottorato è quello di restituire una genealogia del Museo Monumento al Deportato politico e razziale dei BBPR, ricostruendo il quadro culturale e politico italiano nel lasso di tempo che intercorre dalla fine della Seconda Guerra Mondiale (1945) e l’anno della sua inaugurazione (1973). Tale approccio metodologico scelto costituisce l’aspetto di novità della ricerca: un punto di vista ancora inedito con cui guardare il Museo-Monumento, differenziandosi, così, dalle più recenti pubblicazioni sullo stesso, le quali si concentrano soprattutto sulle logiche progettuali del Museo. In conclusione, lo scopo di questa tesi è quella di dare una nuova chiave interpretativa al Museo, che sia non solo un arricchimento alla sua conoscenza ma che, altresì, attesti l’esistenza di un’identità, altrettanto unica e irripetibile, della memoria della deportazione nella cultura architettonica italiana presa in esame, frutto di una “cultura condivisa” tra architetti, artisti, scrittori, politici e intellettuali, accumunati dalle tragiche vicende che in quest’opera si vogliono narrare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Over the last century, mathematical optimization has become a prominent tool for decision making. Its systematic application in practical fields such as economics, logistics or defense led to the development of algorithmic methods with ever increasing efficiency. Indeed, for a variety of real-world problems, finding an optimal decision among a set of (implicitly or explicitly) predefined alternatives has become conceivable in reasonable time. In the last decades, however, the research community raised more and more attention to the role of uncertainty in the optimization process. In particular, one may question the notion of optimality, and even feasibility, when studying decision problems with unknown or imprecise input parameters. This concern is even more critical in a world becoming more and more complex —by which we intend, interconnected —where each individual variation inside a system inevitably causes other variations in the system itself. In this dissertation, we study a class of optimization problems which suffer from imprecise input data and feature a two-stage decision process, i.e., where decisions are made in a sequential order —called stages —and where unknown parameters are revealed throughout the stages. The applications of such problems are plethora in practical fields such as, e.g., facility location problems with uncertain demands, transportation problems with uncertain costs or scheduling under uncertain processing times. The uncertainty is dealt with a robust optimization (RO) viewpoint (also known as "worst-case perspective") and we present original contributions to the RO literature on both the theoretical and practical side.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis deals with the analysis and management of emergency healthcare processes through the use of advanced analytics and optimization approaches. Emergency processes are among the most complex within healthcare. This is due to their non-elective nature and their high variability. This thesis is divided into two topics. The first one concerns the core of emergency healthcare processes, the emergency department (ED). In the second chapter, we describe the ED that is the case study. This is a real case study with data derived from a large ED located in northern Italy. In the next two chapters, we introduce two tools for supporting ED activities. The first one is a new type of analytics model. Its aim is to overcome the traditional methods of analyzing the activities provided in the ED by means of an algorithm that analyses the ED pathway (organized as event log) as a whole. The second tool is a decision-support system, which integrates a deep neural network for the prediction of patient pathways, and an online simulator to evaluate the evolution of the ED over time. Its purpose is to provide a set of solutions to prevent and solve the problem of the ED overcrowding. The second part of the thesis focuses on the COVID-19 pandemic emergency. In the fifth chapter, we describe a tool that was used by the Bologna local health authority in the first part of the pandemic. Its purpose is to analyze the clinical pathway of a patient and from this automatically assign them a state. Physicians used the state for routing the patients to the correct clinical pathways. The last chapter is dedicated to the description of a MIP model, which was used for the organization of the COVID-19 vaccination campaign in the city of Bologna, Italy.