973 resultados para studio implementazione modelli continui deflusso


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trattamento dati, modellazione e calibrazione di un motore da competizione

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La risposta sismica del patrimonio edilizio in muratura è molto articolata e richiede una completa comprensione del comportamento delle strutture stesse nel caso in cui siano soggette ad azione sismica, unitamente a corrette ed esaustive valutazioni numeriche. Questo elaborato è volto alla comprensione del fenomeno chiamato effetto flangia, ovvero l’interazione reciproca di pareti in muratura incidenti, mediante uno studio parametrico. Infatti, tale aspetto dipende da diversi parametri, tra i quali l’ammorsamento, lo spessore e le proporzioni tra i muri incidenti giocano un ruolo principale. Mediante un software ad elementi finiti (ABAQUS) è stato possibile implementare uno script di generazione dei modelli basato sui diversi parametri geometrici (lunghezza della parete incidente e della parete trasversale, e la loro posizione relativa) e su due diverse condizioni di vincolamento dei modelli. Inoltre, si è presa in considerazione la variabilità del carico verticale, stimandola in relazione al valore di resistenza a compressione della muratura: da un valore molto ridotto (5%), fino ad arrivare ad un valore elevato di compressione verticale (30%). L’analisi dei risultati utilizza le convenzionali curve di pushover per strutture in muratura costruite secondo i dettami della normativa tecnica italiana. Tali curve sono analizzate in funzione della percentuale di pressione che viene applicata catturando per ogni caso notevole l’effetto degli altri parametri variabili cercando quindi di descrivere la presenza dell’effetto flangia, ovvero evidenziando le variazioni della risposta strutturale (massimo taglio, duttilità, tipo di crisi etc.) quando è presente una interazione tra due pareti incidenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi consiste nella descrizione del complessivo background storico-letterario, archeologico e digitale necessario per la realizzazione di un Atlante digitale dell’antica Grecia antica sulla base della raccolta e analisi dei dati e delle informazioni contenute nella Periegesi di Pausania. Grazie all’impiego degli applicativi GIS, ed in particolare di ArcGIS online, è stato possibile creare un database georiferito contenente le informazioni e le descrizioni fornite dal testo; ogni identificazione di un sito storico è stata inoltre confrontata con lo stato attuale della ricerca archeologica, al fine di produrre uno strumento innovativo tanto per a ricerca storico-archeologica quanto per lo studio e la valutazione dell’opera di Pausania. Nello specifico il lavoro consiste in primo esempio di atlante digitale interamente basato sull’interpretazione di un testo classico attraverso un processo di georeferenziazione dei suoi contenuti. Per ogni sito identificato è stata infatti specificato il relativo passo di Pausania, collegando direttamente Il dato archeologico con la fonte letteraria. Per la definizione di una tassonomia efficace per l’analisi dei contenuti dell’opera o, si è scelto di associare agli elementi descritti da Pausania sette livelli (layers) all’interno della mappa corrispondenti ad altrettante categorie generali (città, santuari extraurbani, monumenti, boschi sacri, località, corsi d’acqua, e monti). Per ciascun elemento sono state poi inserite ulteriori informazioni all’interno di una tabella descrittiva, quali: fonte, identificazione, età di appartenenza, e stato dell’identificazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente indagine di ricerca si concentra sulle opere storiografiche di Senofonte, focalizzandosi in modo particolare su quelle figure minori presenti in esse, che mostrano caratteristiche o comportamenti tali da renderle indegne del ruolo di governo che occupano. Da tempo, infatti, la critica si è focalizzata nell’individuare e analizzare quei personaggi che rappresentano il perfetto modello di leadership descritto da Senofonte e offerto all’imitazione del suo pubblico. Tuttavia, ben poco si è detto riguardo le figure opposte, quei paradigmi e contrario, destinati non tanto ad essere imitati, ma utili, piuttosto, a rappresentare gli errori che un lettore deve evitare e a far risaltare ancor di più i modelli di leadership illuminata e capace che sono il reale focus dell’attenzione di Senofonte in diverse opere. Se, infatti, è evidente la volontà e le caratteristiche paideutiche del corpus senofonteo, destinato ad insegnare le qualità, politiche ma ancor di più morali, necessarie per ricoprire un ruolo di governo e guida; sembrerebbe logico ipotizzare che questo fine didattico delle opere di Senofonte possa trovare realizzazione anche nelle figure negative, il cui ruolo è sottolineato ed evidenziato dall’autore attraverso strategie letterarie sempre nuove.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I sistemi sanitari sono messi sotto stress da fattori diversi che possono essere sintetizzati schematizzando il problema in pressioni sistemiche e pressioni pandemiche leggendole secondo due vettori paralleli: fattori modificabili e fattori non modificabili. I fattori non modificabili sono legati alla condizione socio-demografica di una popolazione (reddito pro-capite, livello di istruzione) e alle caratteristiche individuali dei pazienti che accedono ai servizi (condizioni di moltimorbidità, fragilità, età, sesso) mentre i fattori modificabili sono legati al modello organizzativo del servizio regionale e Aziendale. I fattori modificabili sono quelli che leggendo i fattori non modificabili possono adattarsi al contesto specifico e con gradi di flessibilità variabile rispondere alle domande emergenti. Il tradizionale approccio ospedaliero, ancora in gran parte basato su modelli organizzativi funzionalmente e strutturalmente chiusi, costruiti attorno alle singole discipline, non si è rivelato in grado di rispondere adeguatamente da solo a questi bisogni di salute complessi che necessitano di una presa in carico multidisciplinare e coordinata tra diversi setting assistenziali. La pandemia che ha portato in Italia ad avere più di 8 milioni di contagiati ha esacerbato problemi storici dei sistemi sanitari. Le Regioni e le Aziende hanno fronteggiato un doppio binario di attività vedendo ridursi l’erogazione di servizi per i pazienti non Covid per far fronte all’incremento di ricoveri di pazienti Covid. Il Policlinico S. Orsola ha in questa congiuntura storica sviluppato un progetto di miglioramento del percorso del paziente urgente coinvolgendo i professionisti e dando loro strumenti operativi di analisi del problema e metodi per identificare risposte efficaci. Riprendendo infine la distinzione tra pressioni modificabili e non modificabili il lavoro mostra che dall’analisi delle cause profonde dei nodi critici del percorso del paziente si possono identificare soluzioni che impattino sugli aspetti organizzativi (modificabili) personalizzando l’approccio per il singolo paziente (non modificabile) in un’ottica patient centred.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'inibizione del complesso respiratorio I (CI) è una strategia antitumorale emergente, sebbene la specificità e l’efficacia di nuovi farmaci restino poco investigate. La generazione di modelli cellulari tumorali nulli per il CI rivela la specificità di EVP 4593 e BAY 872243 nell’indurre gli effetti antiproliferativi non associati all’apoptosi, selettivamente via CI, riducendo eventuali effetti collaterali. Studi preliminari in vivo evidenziano un rallentamento della crescita tumorale negli animali trattati con EVP 4593, il quale emerge come l’inibitore più potente. Per il suo ruolo nella riprogrammazione metabolica, e la sua elevata frequenza di mutazioni nelle neoplasie umane, sono stati investigati i potenziali meccanismi di adattamento alla terapia anti-CI sulla base dello stato mutazionale di TP53. L’auxotrofia da aspartato, un hallmark metabolico delle cellule tumorali con un danno al CI, causa un blocco della sintesi proteica mTORC1-dipendente nelle linee cellulari con una p53 mutata o nulla, inducendo un collasso metabolico. Viceversa, l'attivazione del sensore energetico AMPK promuove un recupero parziale della sintesi di aspartato in linee cellulari con la forma wild type di P53, che è in grado di sostenere una migliore anaplerosi attraverso SCO2, fattore di assemblaggio del complesso respiratorio IV. Al fine di traslare questi risultati in un modello preclinico, si è ottimizzato l’ottenimento di colture di tumori umani espiantati tramite il bioreattore U-CUP. Il modello scelto è stato quello di carcinoma sieroso ad alto grado dell’ovaio (HGSOC), a partire da tessuto congelato, per l’elevata frequenza di mutazioni driver in TP53. I tessuti congelati preservano l'eterogeneità delle componenti cellulari del tessuto di origine e sono caratterizzati da cellule in attiva proliferazione senza attivazione di apoptosi. Dati preliminari mostrano un trend di riduzione dell’area tumorale nei tessuti trattati con EVP 4593 e supportano l’utilizzo del modello preclinico nello studio di nuovi inibitori del CI sfruttando materiale primario di pazienti oncologici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi mira a presentare una panoramica, anche sperimentale con dati editi ed inediti, della ricostruzione delle life histories umane mediante metodi istologici e biogeochimici applicati allo smalto dentale delle dentizioni decidue. La tesi si concentra sulle metodologie biogeochimiche ad alta risoluzione spaziale che consentono di ottenere livelli temporali di dettaglio senza precedenti (da stagionali fino a sub-settimanali), quando combinate con l'analisi istomorfometrica dei tessuti dentali mineralizzati. La presente ricerca si concentra sulla creazione di modelli consistenti di variazione delle concentrazioni di elementi in traccia (con particolare riferimento a stronzio e bario) lungo la giunzione smalto dentinale, ottenuti tramite LA-ICPMS (Laser Ablation Inductively Coupled Mass Spectrometry), in funzione dei cambiamenti nella dieta (allattamento, svezzamento) nel primo anno di età di individui a storia nutrizionale nota (utilizzando denti decidui naturalmente esfoliati). In una prospettiva bioarcheologica, i risultati delle indagini sulla dieta altamente risolte nel tempo e interpretate con modelli come quelli proposti si correlano direttamente alle life histories individuali e consentono una analisi più sfumata e completa del comportamento umano nel passato, fornendo informazioni essenziali per la comprensione degli adattamenti bioculturali e aprendo finestre conoscitive su aspetti quali il rapporto madre-progenie, la gravidanza, l’allattamento, lo stress infantile, la dieta sia della progenie che della madre, la mobilità ad alta risoluzione e molti altri aspetti della vita delle popolazioni del passato che lo studio del DNA antico e della morfologia scheletrica non possono fornire. Dove il DNA antico tace, lo studio avanzato delle life histories parla.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La malattia COVID-19 associata alla sindrome respiratoria acuta grave da coronavirus 2 (SARS-CoV-2) ha rappresentato una grave minaccia per la salute pubblica e l’economia globale sin dalla sua scoperta in Cina, nel dicembre del 2019. Gli studiosi hanno effettuato numerosi studi ed in particolar modo l’applicazione di modelli epidemiologici costruiti a partire dai dati raccolti, ha permesso la previsione di diversi scenari sullo sviluppo della malattia, nel breve-medio termine. Gli obiettivi di questa tesi ruotano attorno a tre aspetti: i dati disponibili sulla malattia COVID-19, i modelli matematici compartimentali, con particolare riguardo al modello SEIJDHR che include le vaccinazioni, e l’utilizzo di reti neurali ”physics-informed” (PINNs), un nuovo approccio basato sul deep learning che mette insieme i primi due aspetti. I tre aspetti sono stati dapprima approfonditi singolarmente nei primi tre capitoli di questo lavoro e si sono poi applicate le PINNs al modello SEIJDHR. Infine, nel quarto capitolo vengono riportati frammenti rilevanti dei codici Python utilizzati e i risultati numerici ottenuti. In particolare vengono mostrati i grafici sulle previsioni nel breve-medio termine, ottenuti dando in input dati sul numero di positivi, ospedalizzati e deceduti giornalieri prima riguardanti la città di New York e poi l’Italia. Inoltre, nell’indagine della parte predittiva riguardante i dati italiani, si è individuato un punto critico legato alla funzione che modella la percentuale di ricoveri; sono stati quindi eseguiti numerosi esperimenti per il controllo di tali previsioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro è incentrato sulla pianificazione delle acquizioni e scaricamento del satellite PLATiNO. Le operazioni permesse a questo satellite sono vincolate da varie attività tra cui acquisizioni, manovre e scaricamento di dati. L'obiettivo finale è quello di soddisfare più richieste possibili massimizzando le operazioni del satellite senza però violare i vincoli imposti. A questo scopo, è stato sviluppato un modello in formulazione MILP per una versione rilassata del problema. In questa Tesi vengono innanzitutto trattati i principali argomenti di programmazione lineare e intera in modo da poter affrontare il modello matematico inerente al problema di downlink di PLATiNO. Successivamente viene descritto nel dettaglio il problema da modellizzare, con particolare attenzione alla strategia di downlink, che costituisce l'aspetto più problematico nella costruzione del modello. Si opta, infatti, per una formulazione mista rilassando i vincoli inerenti allo scaricamento dei dati. Infine, vengono valutate le prestazioni del modello rilassato confrontandolo con la sua versione esatta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi è stato svolto presso Marr S.p.A.: azienda italiana leader nella distribuzione di prodotti alimentari alla ristorazione extra domestica. Il fulcro dell'attività di MARR S.p.A risiede nell'approvvigionamento dei prodotti ai clientii. Per assicurare un servizio efficiente e redditizio è necessaria un'attenta pianificazione logistica, perciò, il lavoro di questa tesi si è concentrato su due aspetti centrali dell'operazione di riordino merce: la predizione della domanda futura dei prodotti, sulla base di dati riferiti al passato e l'individuazione della quantità effettiva da riordinare all'interno dei magazzini dell'azienda. Si è quindi svolta un'attenta analisi dell'attuale gestione dell'approvvigionamento da parte dell'azienda, quindi, ne sono state messe in luce le principali criticità, le quali risiedono nel fatto che il processo di riordino viene eseguito in maniera manuale sulla base dell'esperienza del Responsabile Acquisti. quindi, sono state sviluppate delle proposte di miglioramento delle attività di riordino: attraverso l’applicazione di modelli previsionali, è stato calcolato, per un campione ristretto di prodotti, il loro fabbisogno mensile, successivamente, questi risultati sono stati integrati con i vincoli di tempo di copertura e minimo d’ordine. Sono stati definiti e calcolati alcuni indici che potessero esprimere il grado di miglioramento della performance aziendale. I risultati avuti attraverso il lavoro di tesi cosa dimostrano quanto l’utilizzo di metodi basati sulle serie storiche forniscano una stima dei volumi di vendita futura più affidabili confronto a quelli ottenuti utilizzando i dati di vendita del mese corrente come stima delle vendite future. Attraverso l’utilizzo dei metodi di Media Mobile, Smorzamento Esponenziale e di Holt-Winters si può arrivare ad un livello di precisione maggiore di quello in uso in MARR S.p.A. ed è possibile giungere ad un’ottimizzazione dei magazzini, riducendone la giacenza del 10%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Web 3.0 è un'estensione del web come lo conosciamo oggi basata sulla blockchain e che ha permesso negli ultimi anni lo sviluppo della Token Economy. I token e gli smart contract sono gli strumenti che permettono di creare nuovi modelli di business tokenizzati. Questa tesi ha lo scopo di capire quale sia il legame tra lo sviluppo delle tecnologie del Web 3.0 e i modelli di business che ne derivano, andando a individuare i modelli imprenditoriali più noti, la loro value proposition e le complicazioni ad essi associate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partire dagli anni ’50 furono sviluppati numerosi modelli con l’intento di studiare i fenomeni connessi al traffico. Alcuni di essi riuscirono non solo a spiegare i fenomeni per i quali erano stati ideati ma misero in evidenza altre caratteristiche tipiche dei sistemi dinamici, come la presenza di cicli di isteresi e cambiamenti nella distribuzione dei tempi di percorrenza in situazioni di congestione. Questo lavoro si propone di verificare la validità di un modello semplificato ideato per mettere in luce i comportamenti tipici di un sistema di traffico, in particolare le congestioni che si vengono a creare sulla rete stradale. Tale modello è stato implementato per mezzo della libreria C++ Traffic Flow Dynamics Model, reperibile al link https://github.com/Grufoony/TrafficFlowDynamicsModel. Ai fini dello studio sono stati utilizzati i Diagrammi Fondamentali Macroscopici, particolari diagrammi che mettono in relazione gli osservabili principali di un network stradale quali velocità, densità e flusso. Variando il carico immesso nella rete stradale è stato possibile studiare il sistema in diversi regimi: carico costante, carico piccato e carico periodico. Mediante questi studi sono emerse diverse proprietà tipiche di ogni regime e, per alcuni di essi, è stata verificate e giustificate la presenza di uno o più cicli di isteresi. In ultimo è stata effettuata una breve analisi ad-hoc volta a evidenziare i cambiamenti nella distribuzione dei tempi di percorrenza in relazione al regime di traffico considerato.