11 resultados para Workflow Template
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
Il presente lavoro di tesi ha come punto focale la descrizione, la verifica e la dimostrazione della realizzabilità dei Workflow Patterns di Gestione del Flusso(Control-Flow) e Risorse (Resource) definiti da parte della Workflow Pattern Initiative (WPI)in JOLIE, un innovativo linguaggio di programmazione orientato ai servizi nato nell'ambito del Service Oriented Computing. Il Service Oriented Computing (SOC) è un nuovo modo di pensare la programmazione di applicazioni distribuite, i cui concetti fondamentali sono i servizi e la composizione. L’approccio SOC definisce la possibilità di costruire un’applicazione in funzione dei servizi che ne realizzano il comportamento tramite una loro composizione, definita secondo un particolare flusso di lavoro. Allo scopo di fornire la necessaria conoscenza per capire la teoria, le meccaniche e i costrutti di JOLIE utilizzati per la realizzazione dei pattern, il seguente lavoro di tesi è stato diviso in quattro parti, corrispondenti ad altrettanti capitoli. Nel primo capitolo viene riportata una descrizione generale del SOC e della Business Process Automation (BPA), che costituisce l’ambiente in cui il SOC è inserito. Per questo viene fatta una disamina della storia informatica sui sistemi distribuiti, fino ad arrivare ai sistemi odierni, presentando in seguito il contesto del BPA e delle innovazioni derivanti dalle sue macro-componenti, di cui il SOC fa parte. Continuando la descrizione dell’approccio Service Oriented, ne vengono presentati i requisiti (pre-condizioni) e si cerca di dare una definizione precisa del termine “servizio”, fino all'enunciazione dei principi SOC declinati nell’ottica delle Service Oriented Architectures, presentando in ultimo i metodi di composizione dei servizi, tramite orchestrazione e coreografia. L’ultima sezione del capitolo prende in considerazione il SOC in un’ottica prettamente industriale e ne evidenzia i punti strategici. Il secondo capitolo è incentrato sulla descrizione di JOLIE, gli aspetti fondamentali dell’approccio orientato ai servizi, che ne caratterizzano profondamente la definizione concettuale (SOCK), e la teoria della composizione dei servizi. Il capitolo non si pone come una descrizione esaustiva di tutte le funzionalità del linguaggio, ma considera soprattutto i concetti teorici, le strutture di dati, gli operatori e i costrutti di JOLIE utilizzati per la dimostrazione della realizzabilità dei Workflow Pattern del capitolo successivo. Il terzo capitolo, più lungo e centrale rispetto agli altri, riguarda la realizzazione dei workflow pattern in JOLIE. All'inizio del capitolo viene fornita una descrizione delle caratteristiche del WPI e dei Workflow Pattern in generale. In seguito, nelle due macro-sezioni relative ai Control-Flow e Resource pattern vengono esposte alcune nozioni riguardanti le metodologie di definizione dei pattern (e.g. la teoria sulla definizione delle Colored Petri Nets) e le convezioni adottate dal WPI, per passare in seguito al vero e proprio lavoro (sperimentale) di tesi riguardo la descrizione dei pattern, l’analisi sulla loro realizzabilità in JOLIE, insieme ad un codice di esempio che esemplifica quanto affermato dall'analisi. Come sommario delle conclusioni raggiunte sui pattern, alla fine di ognuna delle due sezioni definite in precedenza, è presente una scheda di valutazione che, con lo stesso metodo utilizzato e definito dalla WPI, permette di avere una rappresentazione generale della realizzabilità dei pattern in JOLIE. Il quarto capitolo riguarda gli esiti tratti dal lavoro di tesi, riportando un confronto tra le realizzazioni dei pattern in JOLIE e le valutazioni del WPI rispetto agli altri linguaggi da loro considerati e valutati. Sulla base di quanto ottenuto nel terzo capitolo vengono definite le conclusioni del lavoro portato avanti sui pattern e viene delineato un’eventuale scenario riguardante il proseguimento dell’opera concernente la validazione ed il completamento della studio. In ultimo vengono tratte alcune conclusioni sia riguardo JOLIE, nel contesto evolutivo del linguaggio e soprattutto del progetto open-source che è alla sua base, sia sul SOC, considerato nell’ambito del BPA e del suo attuale ambito di sviluppo dinamico.
Resumo:
Lo scopo di IDCardOCR è quello di permettere all'utente di acquisire i dati di una persona in formato strutturato eseguendo una semplice foto del suo documento di identità. I dati salvati saranno così a disposizione dell’utente in formato digitale. Permette, a differenze di altre applicazioni, la creazione di una maschera personalizzata dove è l’utente a decidere i dati da digitalizzare. Il riconoscimento ottico dei caratteri è implementato dal tool Tesseract-OCR Obiettivo della tesi è quello di approfondire lo studio dei sistemi di OCR e del loro funzionamento in ambiente Android, applicare tecniche di ritaglio e elaborazione delle immagini, approfondimento delle piattaforma di sviluppo. La tesi è cosi strutturata. Il primo capitolo contiene l’introduzione al problema, una panoramica sulle applicazioni esistenti e i motivi che ci hanno spinto ha scegliere la piattaforma di sviluppo Andriod. Il capitolo due tratta delle progettazione dell’applicazione attraverso diagrammi UML e introduce l’architettura del sistema. Il capitolo tre è incentrato sulla parte di sviluppo, infine nel quarto capitolo, si conclude la tesi con i risultati dei test effettuati e i possibili sviluppi futuri.
Resumo:
In questo lavoro di tesi verrà presentato un applicativo, sviluppato con l’azienda EBWorld, per dispositivi con sistema operativo Android. L’applicazione ha come destinatari i tecnici e gli operatori sul campo di aziende clienti di EBWorld. Nel dispositivo vengono caricati i dati estratti dal database (porzioni di mappe e informazioni ad esse correlate) che vengono lette e mostrate nello schermo. Le funzionalità fornite sono: utilizzo dello strumento trail, per effettuare misurazioni; creazione di progetti all’interno delle esportazioni; inserimento di sketch, definiti in accordo con l’azienda, all’interno dei progetti; selezione degli sketch e delle informazioni estratte dal database e visualizzazione delle relative informazioni / proprietà; eliminazione di sketch inseriti. È stato effettuato uno studio di progettazione dell’interfaccia per offrire un’ottima usabilità anche in situazioni critiche.
RSLT: trasformazione di Open LinkedData in testi in linguaggio naturaletramite template dichiarativi
Resumo:
La diffusione del Semantic Web e di dati semantici in formato RDF, ha creato la necessità di un meccanismo di trasformazione di tali informazioni, semplici da interpretare per una macchina, in un linguaggio naturale, di facile comprensione per l'uomo. Nella dissertazione si discuterà delle soluzioni trovate in letteratura e, nel dettaglio, di RSLT, una libreria JavaScript che cerca di risolvere questo problema, consentendo la creazione di applicazioni web in grado di eseguire queste trasformazioni tramite template dichiarativi. Verranno illustrati, inoltre, tutti i cambiamenti e tutte le modi�che introdotte nella versione 1.1 della libreria, la cui nuova funzionalit�à principale �è il supporto a SPARQL 1.0.
Resumo:
LHC experiments produce an enormous amount of data, estimated of the order of a few PetaBytes per year. Data management takes place using the Worldwide LHC Computing Grid (WLCG) grid infrastructure, both for storage and processing operations. However, in recent years, many more resources are available on High Performance Computing (HPC) farms, which generally have many computing nodes with a high number of processors. Large collaborations are working to use these resources in the most efficient way, compatibly with the constraints imposed by computing models (data distributed on the Grid, authentication, software dependencies, etc.). The aim of this thesis project is to develop a software framework that allows users to process a typical data analysis workflow of the ATLAS experiment on HPC systems. The developed analysis framework shall be deployed on the computing resources of the Open Physics Hub project and on the CINECA Marconi100 cluster, in view of the switch-on of the Leonardo supercomputer, foreseen in 2023.
Resumo:
The Neural Networks customized and tested in this thesis (WaldoNet, FlowNet and PatchNet) are a first exploration and approach to the Template Matching task. The possibilities of extension are therefore many and some are proposed below. During my thesis, I have analyzed the functioning of the classical algorithms and adapted with deep learning algorithms. The features extracted from both the template and the query images resemble the keypoints of the SIFT algorithm. Then, instead of similarity function or keypoints matching, WaldoNet and PatchNet use the convolutional layer to compare the features, while FlowNet uses the correlational layer. In addition, I have identified the major challenges of the Template Matching task (affine/non-affine transformations, intensity changes...) and solved them with a careful design of the dataset.
Resumo:
Modern society is now facing significant difficulties in attempting to preserve its architectural heritage. Numerous challenges arise consequently when it comes to documentation, preservation and restoration. Fortunately, new perspectives on architectural heritage are emerging owing to the rapid development of digitalization. Therefore, this presents new challenges for architects, restorers and specialists. Additionally, this has changed the way they approach the study of existing heritage, changing from conventional 2D drawings in response to the increasing requirement for 3D representations. Recently, Building Information Modelling for historic buildings (HBIM) has escalated as an emerging trend to interconnect geometrical and informational data. Currently, the latest 3D geomatics techniques based on 3D laser scanners with enhanced photogrammetry along with the continuous improvement in the BIM industry allow for an enhanced 3D digital reconstruction of historical and existing buildings. This research study aimed to develop an integrated workflow for the 3D digital reconstruction of heritage buildings starting from a point cloud. The Pieve of San Michele in Acerboli’s Church in Santarcangelo Di Romagna (6th century) served as the test bed. The point cloud was utilized as an essential referential to model the BIM geometry using Autodesk Revit® 2022. To validate the accuracy of the model, Deviation Analysis Method was employed using CloudCompare software to determine the degree of deviation between the HBIM model and the point cloud. The acquired findings showed a very promising outcome in the average distance between the HBIM model and the point cloud. The conducted approach in this study demonstrated the viability of producing a precise BIM geometry from point clouds.
Resumo:
Il settore del mobile è frammentato, caratteristica che non ha mai permesso una completa digitalizzazione dei suoi comparti: la comunicazione è risultata spesso difficoltosa, responsabile di incomprensioni e spesso mancanza di puntualità, con conseguente dispendio di risorse. Nel mio progetto di tesi analizzo principalmente la filiera degli imbottiti e quella tessile, collaterale ad essa. Il target di mio interesse sono le aziende produttrici di arredi che si servono di configuratori per la presentazione dei prodotti ai propri clienti. Ho ipotizzato un workflow suddivisibile in due fasi, una attuabile nel presente ed una seconda che implica una variazione attuabile nel futuro prossimo. Per la prima fase ho studiato un workflow agile al fine di digitalizzare le texture a partire da acquisizioni fotografiche. Analizzando il comportamento di vari tessuti ed elaborando un metodo di riproduzione digitale, ho sperimentato una metodologia per una resa superficiale degli imbottiti accurata e fotorealistica sia su piattaforme web che in realtà aumentata. Lo studio nasce dall’esigenza di apportare migliorie agli attuali configuratori e renderli effettivamente utili al fine per cui sono stati pensati: garantire una semplificazione del processo di acquisto rispondendo alle necessità degli utenti di vedere in anteprima l’aspetto finale del proprio arredo, collocato nello spazio abitativo. Il configuratore che ne deriva, restituirà una visualizzazione fedele dei tessuti anche in realtà aumentata. L’intelligenza artificiale fungerà da supporto nel processo decisionale dell’utente e la scelta dei materiali che compongono l’arredo sarà guidata in maniera tale da generare nell’utente un senso di consapevolezza circa gli impatti sull’ambiente. Per la seconda fase propongo una modalità di creazione dei tessuti completamente digitalizzata, a favore di una filiera sostenibile che riesce in questo modo ad abbattere costi e sprechi, con conseguente risparmio di risorse.
Resumo:
As a witness on the industrialization in Bologna, since its first generation was born in the late 1760, the Battiferro lock has been coping with the innovation that the city experienced throughout the centuries, until it has lost its functionality due to the technological development for which Bologna’s canals were gradually covered starting from the 1950s under Giuseppe Dozza ’s administration, as part of the reconstruction, reclamation and urban requalification that was carried out in the aftermath the World War II and which involved the whole city. The interest of the research carried out on this case study was primarily to reintroduce the landmark that is still intact, to what is considered to be the fourth generation of the industrial revolution, namely in the construction field, which is recognized as Construction 4.0, by means of the Historic (or Heritage) Information Modeling HBIM and Virtual Reality (VR) application. A scan-to-BIM approach was followed to create 3D as-built BIM model, as a first step towards the storytelling of the abandoned industrial built asset in VR environment, or as a seed for future applications such as Digital Twins (DT), heritage digital learning, sustainable impact studies, and/or interface with other interfaces such as GIS. Based on the HBIM product, examples of the primary BIM deliverables such as 2D layouts is given, then a workflow to VR is proposed and investigated the reliability of data and the type of users that may benefit of the VR experience, then the potential future development of the model is investigated, with comparison of a relatively similar experience in the UK.