969 resultados para Medicine--Data processing
Resumo:
Mitjançant les tècniques de visió per computador aquest projecte pretén desenvolupar una aplicació capaç de segmentar la pell, detectar nevus (pigues i altres taques) i poder comparar imatges de pacients amb risc de contreure melanoma preses en moments diferents. Aquest projecte pretén oferir diferents eines informàtiques als dermatòlegs per a propòsits relacionats amb la investigació. L’ objectiu principal d’ aquest projecte és desenvolupar un sistema informàtic que proporcioni als dermatòlegs agilitat a l’hora de gestionar les dades dels pacients amb les sevesimatges corresponents, ajudar-los en la realització de deteccions dels nevus d’aquestes imatges, i ajudar-los en la comparació d’exploracions (amb les deteccions realitzades)de diferents èpoques d’un mateix pacient
Resumo:
L’objectiu principal d’aquest projecte era implementar la visualització 3D de models fusionats i aplicar totes les tècniques possibles per realitzar aquesta fusió. Aquestes tècniques s’integraran en la plataforma de visualització i processament de dades mèdiques STARVIEWER. Per assolir l’ objectiu principal s’ han definit els següents objectius específics:1- estudiar els algoritmes de visualització de models simples i analitzar els diferents paràmetres a tenir en compte. 2- ampliació de la tècnica de visualització bàsica seleccionada per tal de suportar els models fusionats. 3- avaluar i compar tots els mètodes implementats per poder determinar quin ofereix les millors visualitzacions
Resumo:
Aquest projecte parteix d'un projecte anterior realitzat per un company d'escola, en el qual es pretenia muntar un sistema per obtenir un diagnòstic dels pacients que pateixen bruxisme. El sistema que aquest company va muntar constava de dos subsistemes: el sistema de captura, encarregat de capturar el senyal mitjançant sensors i pretractar el senyal i el sistema de processament de dades, encarregat de rebre les dades provinents del sistema de captura mitjançant una ràdio sintonitzada a la freqüència 432,95MHz, que després s'envien al convertidor A/D de l'Olorim i s'emmagatzemen a la memòria interna de l'Olorim. Aquest projecte pretén millorar l'apartat de capacitat per a les dades i oferir major portabilitat mitjançant una targeta SD. Per dur a terme aquesta millora es recullen les dades emmagatzemades a la memòria interna del sistema microprocessat i s’emmagatzemen en una memòria SD. Les dades s'emmagatzemen a la targeta SD dins un fitxer creat prèviament amb l'ordinador, el qual ha de ser el primer fitxer que es crea a la targeta, ja que ha d'estar en sectors consecutius. En aquest fitxer s'aniran emmagatzemant les dades que ens proporcioni el sistema de captura en format RAW
Resumo:
Estudi, disseny i implementació d’un algorisme de visualització de volums i integrar-lo en la plataforma DTIWeb de visualització i processament de dades de DTI. La plataforma DTIWeb és una plataforma desenvolupada conjuntament entre el Laboratori de Gràfics i Imatge de la Universitat de Girona i d’Institut de Diagnòstic per la imatge de l’Hospital Josep Trueta de Girona. Aquesta plataforma integra els mètodes bàsics de reconstrucció de fibres del cervell. La principal limitació de la plataforma és que no suporta la visualització de models 3D. Aquest fet limita el seu us en la pràctica clínica habitual ja que es fa difícil la interpretació dels mapes de connectivitat que genera
Resumo:
L’objectiu d’aquest projecte és integrar a la plataforma Starviewer ( plataforma informàtica de processament i visualització d’imatges mèdiques creada fruit de la col•laboració del Laboratori de Gràfics i Imatge (GILab) de la Universitat de Girona i l’Institut de Diagnòstic per la Imatge (IDI) de l’hospital Dr. Josep Trueta de Girona) per donar suport al diagnòstic un entorn de suport a la inserció de pròtesis, que permeti automatitzar al màxim les operacions que actualment es realitzen de forma manual. Hem de tenir en compte que, tot i que, la imatge més usada pel radiòleg es la radiografia (Rx) també treballa amb tomografia computada (TAC). El TAC dona una visió 3D de l’organisme, mentre que la Rx és 2D
Resumo:
L’objectiu d’aquest projecte és ampliar la plataforma Starviewer integrant els mòduls necessaris per donar suport al diagnòstic de l’estenosi de caròtida permetent interpretar de forma més fàcil les imatges Angiografia per Ressonància Magnètica (ARM). La plataforma Starviewer és un entorn informàtic que integra funcionalitats bàsiques i avançades pel processament i la visualització d’imatges mèdiques. Està desenvolupat pel Grup d’Informàtica Gràfica de la Universitat de Girona i l’Institut de Diagnòstic per la Imatge (IDI) de l’hospital Dr. Josep Trueta. Una de les limitacions de la plataforma és el no suportar el tractament de lesions del sistema vascular. Per això ens proposem a corregir-ho i ampliar les seves extensions per a poder diagnosticar l’estenosi de caròtida
Resumo:
L’objectiu d’aquest projecte es dissenyar i implementar un entorn de suport al diagnòstic dels aneurismes. Aquest entorn s’haurà d’integrar en la plataforma Starviewer. La plataforma Starviewer és un entorn de processament i visualització de dades mèdiques desenvolupat conjuntament entre el Laboratori de Gràfics i Imatge de la UdG i l’ Institut de Diagnòstic per la Imatge de l’Hospital Josep Trueta de Girona. Aquesta plataforma ofereix les funcionalitats bàsiques per diagnosticar a partir d’imatges. Tot i les funcionalitats de la plataforma, en la versió actual no es suporta el processament avançat d’imatge d’angiografia. En aquest projecte ens proposem ampliar aquesta plataforma integrant els mòduls necessaris que permetin el processament d’angiografies usades en el diagnòstic dels aneurismes
Resumo:
To coordinate ambulances for emergency medical services, a multiagent system uses an auction mechanism based on trust. Results of tests using real data show that this system can efficiently assign ambulances to patients, thereby reducing transportation time. Emergency transportation on specialized vehicles is needed when a person's health is in risk of irreparable damage. A patient can't benefit from sophisticated medical treatments and technologies if she or he isn't placed in a proper healthcare center with the appropriate medical team. For example, strokes are neurological emergencies involving a limited amount of time in which treatment measures are effective
Resumo:
This paper addresses the application of a PCA analysis on categorical data prior to diagnose a patients data set using a Case-Based Reasoning (CBR) system. The particularity is that the standard PCA techniques are designed to deal with numerical attributes, but our medical data set contains many categorical data and alternative methods as RS-PCA are required. Thus, we propose to hybridize RS-PCA (Regular Simplex PCA) and a simple CBR. Results show how the hybrid system produces similar results when diagnosing a medical data set, that the ones obtained when using the original attributes. These results are quite promising since they allow to diagnose with less computation effort and memory storage
Resumo:
El càncer de pell es considera un dels tipus de càncer més freqüents actualment, entre d'altres factors degut a l'augment en l'exposició a la radiació ultraviolada (UV). Recentment la utilització de la Microscòpia Confocal (MCF) per a l'avaluació i diagnosi del càncer de pell ha rebut un important interès. El principal avantatge és la capacitat de visualitzar en temps real la regió d'interès a nivell cel·lular, similar a la informació obtinguda en una biòpsia, sense el patiment que suposa per al pacient. El principal inconvenient però, és que les imatges obtingudes amb MCF són difícils d'interpretar per als metges en el format actual (conjunt de talls 2D a diferents profunditats de la pell). El microscopi confocal és una de les tècniques més actuals de diagnòstic, i s'ha establert com a una eina per obtenir imatges d'alta resolució i reconstruccions 3-D d'una gran varietat de mostres biològiques. És capaç d'escombrar diferents plans en l'eix Z, obtenint imatges 2D de diferent profunditat juntament amb la informació dels paràmetres de captura (com ara la profunditat, potència del làser, posicionament en x,y,z, etc). Mitjançant eines informàtiques es pot integrar aquesta informació en un model 3D de la regió d'interès. L'objectiu principal d'aquest projecte és el desenvolupament d'una eina per a l'ajuda en la interpretació de les imatges MCF i així poder millorar el diagnosi del càncer de pell
Resumo:
El processament de dades cardíaques és, sinó el que més, un dels més complexes de tractar. El problema principal és que a diferència d’altres parts de l’organisme, el cor del pacient està en moviment continu. Aquest moviment queda representat en les imatges generades pels aparells de captació en forma de soroll. Aquest soroll no només dificulta la detecció de les patologies per part dels cardiòlegs i els especialistes sinó que també en moltes ocasions limita l’aplicació de certes tècniques i mètodes. Així per exemple, l’aplicació de mètodes de visualització 3D (mètodes que permeten generar una representació 3D d’un òrgan) que poden aplicar-se fàcilment en visualització de dades del cervell no són aplicables sobre dades de cor. El Grup d’Informàtica Gràfica de la Universitat de Girona, juntament amb l’Institut de Diagnòstic per la Imatge (IDI) de l'hospital Dr. Josep Trueta, està col·laborant en el desenvolupament de noves eines informàtiques que donin suport al diagnòstic. Una de les prioritats actuals de l'IDI és el tractament de malalties cardíaques. Es disposa d’una plataforma anomenada Starviewer que integra les operacions bàsiques de manipulació i visualització de dades mèdiques. L’objectiu d’aquest projecte és el de desenvolupar i integrar en la plataforma Starviewer els mòduls necessaris per poder tractar, manipular i visualitzar dades cardíaques provinents de ressònancies magnètiques
Resumo:
La visualització científica estudia i defineix algorismes i estructures de dades que permeten fer comprensibles conjunts de dades a través d’imatges. En el cas de les aplicacions mèdiques les dades que cal interpretar provenen de diferents dispositius de captació i es representen en un model de vòxels. La utilitat d’aquest model de vòxels depèn de poder-lo veure des del punt de vista ideal, és a dir el que aporti més informació. D’altra banda, existeix la tècnica dels Miralls Màgics que permet veure el model de vòxels des de diferents punts de vista alhora i mostrant diferents valors de propietat a cada mirall. En aquest projecte implementarem un algorisme que permetrà determinar el punt de vista ideal per visualitzar un model de vòxels així com també els punts de vista ideals per als miralls per tal d’aconseguir el màxim d’informació possible del model de vòxels. Aquest algorisme es basa en la teoria de la informació per saber quina és la millor visualització. L’algorisme també permetrà determinar l’assignació de colors òptima per al model de vòxels
Resumo:
Until mid 2006, SCIAMACHY data processors for the operational retrieval of nitrogen dioxide (NO2) column data were based on the historical version 2 of the GOME Data Processor (GDP). On top of known problems inherent to GDP 2, ground-based validations of SCIAMACHY NO2 data revealed issues specific to SCIAMACHY, like a large cloud-dependent offset occurring at Northern latitudes. In 2006, the GDOAS prototype algorithm of the improved GDP version 4 was transferred to the off-line SCIAMACHY Ground Processor (SGP) version 3.0. In parallel, the calibration of SCIAMACHY radiometric data was upgraded. Before operational switch-on of SGP 3.0 and public release of upgraded SCIAMACHY NO2 data, we have investigated the accuracy of the algorithm transfer: (a) by checking the consistency of SGP 3.0 with prototype algorithms; and (b) by comparing SGP 3.0 NO2 data with ground-based observations reported by the WMO/GAW NDACC network of UV-visible DOAS/SAOZ spectrometers. This delta-validation study concludes that SGP 3.0 is a significant improvement with respect to the previous processor IPF 5.04. For three particular SCIAMACHY states, the study reveals unexplained features in the slant columns and air mass factors, although the quantitative impact on SGP 3.0 vertical columns is not significant.
Resumo:
Clinical Research Data Quality Literature Review and Pooled Analysis We present a literature review and secondary analysis of data accuracy in clinical research and related secondary data uses. A total of 93 papers meeting our inclusion criteria were categorized according to the data processing methods. Quantitative data accuracy information was abstracted from the articles and pooled. Our analysis demonstrates that the accuracy associated with data processing methods varies widely, with error rates ranging from 2 errors per 10,000 files to 5019 errors per 10,000 fields. Medical record abstraction was associated with the highest error rates (70–5019 errors per 10,000 fields). Data entered and processed at healthcare facilities had comparable error rates to data processed at central data processing centers. Error rates for data processed with single entry in the presence of on-screen checks were comparable to double entered data. While data processing and cleaning methods may explain a significant amount of the variability in data accuracy, additional factors not resolvable here likely exist. Defining Data Quality for Clinical Research: A Concept Analysis Despite notable previous attempts by experts to define data quality, the concept remains ambiguous and subject to the vagaries of natural language. This current lack of clarity continues to hamper research related to data quality issues. We present a formal concept analysis of data quality, which builds on and synthesizes previously published work. We further posit that discipline-level specificity may be required to achieve the desired definitional clarity. To this end, we combine work from the clinical research domain with findings from the general data quality literature to produce a discipline-specific definition and operationalization for data quality in clinical research. While the results are helpful to clinical research, the methodology of concept analysis may be useful in other fields to clarify data quality attributes and to achieve operational definitions. Medical Record Abstractor’s Perceptions of Factors Impacting the Accuracy of Abstracted Data Medical record abstraction (MRA) is known to be a significant source of data errors in secondary data uses. Factors impacting the accuracy of abstracted data are not reported consistently in the literature. Two Delphi processes were conducted with experienced medical record abstractors to assess abstractor’s perceptions about the factors. The Delphi process identified 9 factors that were not found in the literature, and differed with the literature by 5 factors in the top 25%. The Delphi results refuted seven factors reported in the literature as impacting the quality of abstracted data. The results provide insight into and indicate content validity of a significant number of the factors reported in the literature. Further, the results indicate general consistency between the perceptions of clinical research medical record abstractors and registry and quality improvement abstractors. Distributed Cognition Artifacts on Clinical Research Data Collection Forms Medical record abstraction, a primary mode of data collection in secondary data use, is associated with high error rates. Distributed cognition in medical record abstraction has not been studied as a possible explanation for abstraction errors. We employed the theory of distributed representation and representational analysis to systematically evaluate cognitive demands in medical record abstraction and the extent of external cognitive support employed in a sample of clinical research data collection forms. We show that the cognitive load required for abstraction in 61% of the sampled data elements was high, exceedingly so in 9%. Further, the data collection forms did not support external cognition for the most complex data elements. High working memory demands are a possible explanation for the association of data errors with data elements requiring abstractor interpretation, comparison, mapping or calculation. The representational analysis used here can be used to identify data elements with high cognitive demands.
Resumo:
This dissertation develops a new mathematical approach that overcomes the effect of a data processing phenomenon known as “histogram binning” inherent to flow cytometry data. A real-time procedure is introduced to prove the effectiveness and fast implementation of such an approach on real-world data. The histogram binning effect is a dilemma posed by two seemingly antagonistic developments: (1) flow cytometry data in its histogram form is extended in its dynamic range to improve its analysis and interpretation, and (2) the inevitable dynamic range extension introduces an unwelcome side effect, the binning effect, which skews the statistics of the data, undermining as a consequence the accuracy of the analysis and the eventual interpretation of the data. ^ Researchers in the field contended with such a dilemma for many years, resorting either to hardware approaches that are rather costly with inherent calibration and noise effects; or have developed software techniques based on filtering the binning effect but without successfully preserving the statistical content of the original data. ^ The mathematical approach introduced in this dissertation is so appealing that a patent application has been filed. The contribution of this dissertation is an incremental scientific innovation based on a mathematical framework that will allow researchers in the field of flow cytometry to improve the interpretation of data knowing that its statistical meaning has been faithfully preserved for its optimized analysis. Furthermore, with the same mathematical foundation, proof of the origin of such an inherent artifact is provided. ^ These results are unique in that new mathematical derivations are established to define and solve the critical problem of the binning effect faced at the experimental assessment level, providing a data platform that preserves its statistical content. ^ In addition, a novel method for accumulating the log-transformed data was developed. This new method uses the properties of the transformation of statistical distributions to accumulate the output histogram in a non-integer and multi-channel fashion. Although the mathematics of this new mapping technique seem intricate, the concise nature of the derivations allow for an implementation procedure that lends itself to a real-time implementation using lookup tables, a task that is also introduced in this dissertation. ^