56 resultados para Netflix,Dark,Germania,serie tv,globale,transnazionale
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
La tesi si propone di affrontare il tema del Live Streaming in sistemi P2P con particolare riferimento a Sopcast, un applicativo di P2PTV. Viene fatto un ricorso storico riguardo alla nascita dello streaming e al suo sviluppo, vengono descritte le caratteristiche, il protocollo di comunicazione e i modelli più diffusi per il live streaming P2P. Inoltre si tratterà come viene garantita la qualità del servizio e valutate le performance di un servizio P2PTV.
Resumo:
The thesis is framed within the field of the stochastic approach to flow and transport themes of solutes in natural porous materials. The methodology used to characterise the uncertainty associated with the modular predictions is completely general and can be reproduced in various contexts. The theme of the research includes the following among its main objectives: (a) the development of a Global Sensitivity Analysis on contaminant transport models in the subsoil to research the effects of the uncertainty of the most important parameters; (b) the application of advanced techniques, such as Polynomial Chaos Expansion (PCE), for obtaining surrogate models starting from those which conduct traditionally developed analyses in the context of Monte Carlo simulations, characterised by an often not negligible computational burden; (c) the analyses and the understanding of the key processes at the basis of the transport of solutes in natural porous materials using the aforementioned technical and analysis resources. In the complete picture, the thesis looks at the application of a Continuous Injection transport model of contaminants, of the PCE technique which has already been developed and applied by the thesis supervisors, by way of numerical code, to a Slug Injection model. The methodology was applied to the aforementioned model with original contribution deriving from surrogate models with various degrees of approximation and developing a Global Sensitivity Analysis aimed at the determination of Sobol’ indices.
Resumo:
The cosmological constant Λ seems to be a not satisfactory explanation of the late-time accelerated expansion of the Universe, for which a number of experimental evidences exist; therefore, it has become necessary in the last years to consider alternative models of dark energy, meant as cause of the accelerated expansion. In the study of dark energy models, it is important to understand which quantities can be determined starting from observational data, without assuming any hypothesis on the cosmological model; such quantities have been determined in Amendola, Kunz et al., 2012. In the same paper it has been further shown that it is possible to estabilish a relation between the model-independent parameters and the anisotropic stress η, which can be also expressed as a combination of the functions appearing in the most general Lagrangian for the scalar-tensor theories, the Horndeski Lagrangian. In the present thesis, the Fisher matrix formalism is used to perform a forecast on the constraints that will be possible to make on the anisotropic stress η in the future, starting from the estimated uncertainties for the galaxy clustering and weak lensing measurements which will be performed by the European Space Agency Euclid mission, to be launched in 2020. Further, constraints coming from supernovae-Ia observations are considered. The forecast is performed for two cases in which (a) η is considered as depending from redshift only and (b) η is constant and equal to one, as in the ΛCDM model.