962 resultados para Data quality problems
Resumo:
Toimituskyky on yrityksen suorituskykyä kuvaava tekijä, jolla on merkittävä vaikutus asiakastyytyväisyyteen, erityisesti valmistusteollisuudessa. Toimituskyky muodostuu materiaalin saatavuudesta ja logistisen järjestelmän toimitusvarmuudesta, joten hyvä toimituskyky edellyttää materiaalipuutteiden hallintaa. Tämän diplomityön tavoitteena on esittää, miten toimituskykyä voidaan kehittää tilaus-toimitusprosessin materiaalipuutteita hallitsemalla. Tutkimus toteutettiin konstruktiivisella tutkimusotteella case-tutkimuksena havainnoimalla toimintaa case-yrityksessä sekä analysoimalla case-yrityksen kirjallista materiaalia ja arkistoja. Yrityksessä havaittuja materiaalipuutteisiin liittyviä ongelmia tarkasteltiin tilaus-toimitusprosessin näkökulmasta prosessijohtamisen ja systemaattisen ongelmanratkaisun teorioiden avulla. Tutkimuksen tuloksena laadittiin kolme käytännönläheistä ratkaisuehdotusta havaittuihin ongelmiin; (1) materiaalipuutteiden syy-seuraussuhteita kuvaavat ongelma-syy-seurausketjut, (2) materiaalipuutteiden ongelmanratkaisumalli systemaattisen ongelmanratkaisun tueksi sekä (3) visuaalinen tilaus-toimitusprosessimalli, joka painottaa osaprosessien yhteyttä koko prosessin toimituskykyyn ja toimitusvarmuuteen. Tulosten mukaan materiaalipuutteet tulisi käsittää prosessin laatuvirheinä, jotka antavat arvokasta tietoa siitä, että prosessissa on laatuongelmia. Tulosten perusteella yrityksen toimituskykyä voidaan kehittää havainnoimalla tilaus-toimitusprosessin laatuvirheitä, selvittämällä laatuvirheiden syy-seuraussuhteet systemaattisesti ongelmanratkaisumallia hyödyntäen sekä toimimalla prosessiajattelun mukaisesti tilaus-toimitusprosessin toimituskyvyn jatkuvaa parantamista tavoitellen. Tutkimusongelman tarkastelutapaa ja työn tuloksia voidaan soveltaa samankaltaisiin tapauksiin, joissa tilaus-toimitusprosessin laatuvirheet, esimerkiksi materiaalipuutteet, paljastavat kehittämistä vaativia epäkohtia prosessin toimintatavoissa. Tilaus-toimitusprosessin toimituskykyä voidaan kehittää vain, jos panostetaan ajan hallintaan ja kykyyn toimia asiakaslupausten ja sopimusten mukaisesti.
Resumo:
In recent years, chief information officers (CIOs) around the world have identified Business Intelligence (BI) as their top priority and as the best way to enhance their enterprises competitiveness. Yet, many enterprises are struggling to realize the business value that BI promises. This discrepancy causes important questions, for example: what are the critical success factors of Business Intelligence and, more importantly, how it can be ensured that a Business Intelligence program enhances enterprises competitiveness. The main objective of the study is to find out how it can be ensured that a BI program meets its goals in providing competitive advantage to an enterprise. The objective is approached with a literature review and a qualitative case study. For the literature review the main objective populates three research questions (RQs); RQ1: What is Business Intelligence and why is it important for modern enterprises? RQ2: What are the critical success factors of Business Intelligence programs? RQ3: How it can be ensured that CSFs are met? The qualitative case study covers the BI program of a Finnish global manufacturer company. The research questions for the case study are as follows; RQ4: What is the current state of the case company’s BI program and what are the key areas for improvement? RQ5: In what ways the case company’s Business Intelligence program could be improved? The case company’s BI program is researched using the following methods; action research, semi-structured interviews, maturity assessment and benchmarking. The literature review shows that Business Intelligence is a technology-based information process that contains a series of systematic activities, which are driven by the specific information needs of decision-makers. The objective of BI is to provide accurate, timely, fact-based information, which enables taking actions that lead to achieving competitive advantage. There are many reasons for the importance of Business Intelligence, two of the most important being; 1) It helps to bridge the gap between an enterprise’s current and its desired performance, and 2) It helps enterprises to be in alignment with key performance indicators meaning it helps an enterprise to align towards its key objectives. The literature review also shows that there are known critical success factors (CSFs) for Business Intelligence programs which have to be met if the above mentioned value is wanted to be achieved, for example; committed management support and sponsorship, business-driven development approach and sustainable data quality. The literature review shows that the most common challenges are related to these CSFs and, more importantly, that overcoming these challenges requires a more comprehensive form of BI, called Enterprise Performance Management (EPM). EPM links measurement to strategy by focusing on what is measured and why. The case study shows that many of the challenges faced in the case company’s BI program are related to the above-mentioned CSFs. The main challenges are; lack of support and sponsorship from business, lack of visibility to overall business performance, lack of rigid BI development process, lack of clear purpose for the BI program and poor data quality. To overcome these challenges the case company should define and design an enterprise metrics framework, make sure that BI development requirements are gathered and prioritized by business, focus on data quality and ownership, and finally define clear goals for the BI program and then support and sponsor these goals.
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Genomics is expanding the horizons of epidemiology, providing a new dimension for classical epidemiological studies and inspiring the development of large-scale multicenter studies with the statistical power necessary for the assessment of gene-gene and gene-environment interactions in cancer etiology and prognosis. This paper describes the methodology of the Clinical Genome of Cancer Project in São Paulo, Brazil (CGCP), which includes patients with nine types of tumors and controls. Three major epidemiological designs were used to reach specific objectives: cross-sectional studies to examine gene expression, case-control studies to evaluate etiological factors, and follow-up studies to analyze genetic profiles in prognosis. The clinical groups included patients' data in the electronic database through the Internet. Two approaches were used for data quality control: continuous data evaluation and data entry consistency. A total of 1749 cases and 1509 controls were entered into the CGCP database from the first trimester of 2002 to the end of 2004. Continuous evaluation showed that, for all tumors taken together, only 0.5% of the general form fields still included potential inconsistencies by the end of 2004. Regarding data entry consistency, the highest percentage of errors (11.8%) was observed for the follow-up form, followed by 6.7% for the clinical form, 4.0% for the general form, and only 1.1% for the pathology form. Good data quality is required for their transformation into useful information for clinical application and for preventive measures. The use of the Internet for communication among researchers and for data entry is perhaps the most innovative feature of the CGCP. The monitoring of patients' data guaranteed their quality.
Resumo:
Diplomityössä kartoitetaan tiedon laatuun vaikuttavia tekijöitä kirjallisuuden pohjalta sekä tutkitaan empiirisesti sähköisen reseptin tietosisällön laatua toiminnallisuuden näkökulmasta tarkasteltuna. Tutkimuksen tavoitteena on tuottaa esiselvitys Reseptikeskuksen tietosisällön toiminnallisesta laadusta käytettäväksi lähtötietona tiedon laadun arviointiin ja seurantaan. Tutkimuksen empiirinen osuus toteutettiin kvantitatiivisena tutkimuksena analysoimalla Reseptikeskuksen tietosisällöstä poimittua n. 600 potilaan otosta. Tutkitussa tietosisällössä havaittiin joitain poikkeamia tietosisältöä koskeviin määrityksiin verrattuna, mutta merkittäviä eroja terveydenhuollon eri toimijaryhmien apteekeissa, julkisella ja yksityisellä sektorilla kirjaamien reseptien tietosisällön laadussa ei havaittu. Tiedon kontekstisidonnaisuus on keskeinen tekijä tiedon toiminnallisen laadun määrittämisessä, arvioinnissa ja kehittämisessä. Toiminnan kannalta merkityksellinen tieto rakentuu dataan liitettyjen merkitysten, tiedon käyttäjien kokemusten sekä teknisen ja sosiaalisen käyttöympäristön muodostamana kokonaisuutena. Tiedon laadun parantaminen on jatkuva prosessi, jota tulee ylläpitää arvioimalla ja kehittämällä käytettäviä laatumittareita ja analysointimalleja. Reseptikeskuksen tietosisällön laatua voidaan edelleen kehittää ja nyt tehdyn esikartoituksen pohjalta voidaan jatkossa seurata tietosisällön laadun kehittymistä uusien tutkimusten avulla
Resumo:
L’explosion récente du nombre de centenaires dans les pays à faible mortalité n’est pas étrangère à la multiplication des études portant sur la longévité, et plus spécifiquement sur ses déterminants et ses répercussions. Alors que certains tentent de découvrir les gènes pouvant être responsables de la longévité extrême, d’autres s’interrogent sur l’impact social, économique et politique du vieillissement de la population et de l’augmentation de l’espérance de vie ou encore, sur l’existence d’une limite biologique à la vie humaine. Dans le cadre de cette thèse, nous analysons la situation démographique des centenaires québécois depuis le début du 20e siècle à partir de données agrégées (données de recensement, statistiques de l’état civil, estimations de population). Dans un deuxième temps, nous évaluons la qualité des données québécoises aux grands âges à partir d’une liste nominative des décès de centenaires des générations 1870-1894. Nous nous intéressons entre autres aux trajectoires de mortalité au-delà de cent ans. Finalement, nous analysons la survie des frères, sœurs et parents d’un échantillon de semi-supercentenaires (105 ans et plus) nés entre 1890 et 1900 afin de se prononcer sur la composante familiale de la longévité. Cette thèse se compose de trois articles. Dans le cadre du premier, nous traitons de l’évolution du nombre de centenaires au Québec depuis les années 1920. Sur la base d’indicateurs démographiques tels le ratio de centenaires, les probabilités de survie et l’âge maximal moyen au décès, nous mettons en lumière les progrès remarquables qui ont été réalisés en matière de survie aux grands âges. Nous procédons également à la décomposition des facteurs responsables de l’augmentation du nombre de centenaires au Québec. Ainsi, au sein des facteurs identifiés, l’augmentation de la probabilité de survie de 80 à 100 ans s’inscrit comme principal déterminant de l’accroissement du nombre de centenaires québécois. Le deuxième article traite de la validation des âges au décès des centenaires des générations 1870-1894 d’origine canadienne-française et de confession catholique nés et décédés au Québec. Au terme de ce processus de validation, nous pouvons affirmer que les données québécoises aux grands âges sont d’excellente qualité. Les trajectoires de mortalité des centenaires basées sur les données brutes s’avèrent donc représentatives de la réalité. L’évolution des quotients de mortalité à partir de 100 ans témoigne de la décélération de la mortalité. Autant chez les hommes que chez les femmes, les quotients de mortalité plafonnent aux alentours de 45%. Finalement, dans le cadre du troisième article, nous nous intéressons à la composante familiale de la longévité. Nous comparons la survie des frères, sœurs et parents des semi-supercentenaires décédés entre 1995 et 2004 à celle de leurs cohortes de naissance respectives. Les différences de survie entre les frères, sœurs et parents des semi-supercentenaires sous observation et leur génération « contrôle » s’avèrent statistiquement significatives à un seuil de 0,01%. De plus, les frères, sœurs, pères et mères des semi-supercentenaires ont entre 1,7 (sœurs) et 3 fois (mères) plus de chance d’atteindre 90 ans que les membres de leur cohorte de naissance correspondante. Ainsi, au terme de ces analyses, il ne fait nul doute que la longévité se concentre au sein de certaines familles.
Resumo:
Le vieillissement de la population canadienne qui est appréhendé dans les années à venir entrainera son lot de défis pour l’administration des soins et services de longue durée. Par contre, une amélioration de l’état de santé fonctionnelle de la population pourrait atténuer le rythme de croissance du nombre d’aînés en état d’incapacité. Utilisant les données transversales de l’Enquête nationale sur la santé de la population (ENSP) et de l’Enquête de santé dans les collectivités canadiennes (ESCC), cette recherche analyse les tendances dans les niveaux d’incapacité chez les personnes de 65 ans et plus vivant dans les ménages privés au Canada entre 1994 et 2005, ainsi que les caractéristiques sociodémographiques associées au risque d’être en incapacité. Les résultats montrent que la prévalence de l’incapacité est à la baisse durant la période, et que parmi les personnes en incapacité, la proportion présentant une incapacité légère a diminué. Tout étant égal par ailleurs, certaines caractéristiques sociodémographiques augmentent le risque pour une personne âgée d’être en incapacité, notamment l’âge, être une femme, la faible scolarité, et être veuf, séparé ou divorcé. Cependant, les limites relativement importantes quant à la qualité des données font en sorte que nous devons interpréter ces résultats avec prudence.
Resumo:
Objectif : Étudier le risque d’hémorragies intracrâniennes et d’infarctus du myocarde chez les patients vivant avec le VIH. Méthode : J’ai réalisé deux études de cohorte au sein de la banque de données de la Régie de l’assurance maladie du Québec. J’ai défini la cohorte des patients VIH-positifs, y ai étudié l’incidence d’hémorragies intracrâniennes et d’infarctus du myocarde, et l’ai comparée à une cohorte VIH-négative de même âge et de même sexe. J’ai étudié l’association entre ces évènements et l’exposition aux antirétroviraux au moyen d’études cas-témoin nichées dans la cohorte des patients VIH-positifs. Résultats : Le VIH est associé à un risque plus élevé d’hémorragies intracrâniennes, particulièrement au stade SIDA. Les patients VIH-positif sont également plus à risque de subir un infarctus du myocarde, et certains antirétroviraux sont associés à un risque plus grand. Conclusion : Les banques de données médico-administratives représentent un moyen valable d’étudier les comorbidités non-infectieuses chez les patients atteints du VIH.
Resumo:
La mammite subclinique est un problème de santé fréquent et coûteux. Les infections intra-mammaires (IIM) sont souvent détectées à l’aide de mesures du comptage des cellules somatiques (CCS). La culture bactériologique du lait est cependant requise afin d’identifier le pathogène en cause. À cause de cette difficulté, pratiquement toutes les recherches sur la mammite subclinique ont été centrées sur la prévalence d’IIM et les facteurs de risque pour l’incidence ou l’élimination des IIM sont peu connus. L’objectif principal de cette thèse était d’identifier les facteurs de risque modifiables associés à l’incidence, l’élimination et la prévalence d’IIM d’importance dans les troupeaux laitiers Canadiens. En premier lieu, une revue systématique de la littérature sur les associations entre pratiques utilisées à la ferme et CCS a été réalisée. Les pratiques de gestion constamment associées au CCS ont été identifiées et différentiées de celles faisant l’objet de rapports anecdotiques. Par la suite, un questionnaire bilingue a été développé, validé, et utilisé afin de mesurer les pratiques de gestion d’un échantillon de 90 troupeaux laitiers canadiens. Afin de valider l’outil, des mesures de répétabilité et de validité des items composant le questionnaire ont été analysées et une évaluation de l’équivalence des versions anglaise et française a été réalisée. Ces analyses ont permis d’identifier des items problématiques qui ont du être recatégorisés, lorsque possible, ou exclus des analyses subséquentes pour assurer une certaine qualité des données. La plupart des troupeaux étudiés utilisaient déjà la désinfection post-traite des trayons et le traitement universel des vaches au tarissement, mais beaucoup des pratiques recommandées n’étaient que peu utilisées. Ensuite, les facteurs de risque modifiables associés à l’incidence, à l’élimination et à la prévalence d’IIM à Staphylococcus aureus ont été investigués de manière longitudinale sur les 90 troupeaux sélectionnés. L’incidence d’IIM semblait être un déterminant plus important de la prévalence d’IIM du troupeau comparativement à l’élimination des IIM. Le port de gants durant la traite, la désinfection pré-traite des trayons, de même qu’une condition adéquate des bouts de trayons démontraient des associations désirables avec les différentes mesures d’IIM. Ces résultats viennent souligner l’importance des procédures de traite pour l’obtention d’une réduction à long-terme de la prévalence d’IIM. Finalement, les facteurs de risque modifiables associés à l’incidence, à l’élimination et à la prévalence d’IIM à staphylocoques coagulase-négatif (SCN) ont été étudiés de manière similaire. Cependant, afin de prendre en considération les limitations de la culture bactériologique du lait pour l’identification des IIM causées par ce groupe de pathogènes, une approche semi-Bayesienne à l’aide de modèles de variable à classe latente a été utilisée. Les estimés non-ajusté de l’incidence, de l’élimination, de la prévalence et des associations avec les expositions apparaissaient tous considérablement biaisés par les imperfections de la procédure diagnostique. Ce biais était en général vers la valeur nulle. Encore une fois, l’incidence d’IIM était le principal déterminant de la prévalence d’IIM des troupeaux. Les litières de sable et de produits du bois, de même que l’accès au pâturage étaient associés à une incidence et une prévalence plus basse de SCN.
Resumo:
La phosphorylation est une modification post-traductionnelle omniprésente des protéines Cette modification est ajoutée et enlevée par l’activité enzymatique respective des protéines kinases et phosphatases. Les kinases Erk1/2 sont au cœur d’une voie de signalisation importante qui régule l’activité de protéines impliquées dans la traduction, le cycle cellulaire, le réarrangement du cytosquelette et la transcription. Ces kinases sont aussi impliquées dans le développement de l’organisme, le métabolisme du glucose, la réponse immunitaire et la mémoire. Différentes pathologies humaines comme le diabète, les maladies cardiovasculaires et principalement le cancer, sont associées à une perturbation de la phosphorylation sur les différents acteurs de cette voie. Considérant l’importance biologique et clinique de ces deux kinases, connaître l’étendue de leur activité enzymatique pourrait mener au développement de nouvelles thérapies pharmacologiques. Dans ce contexte, l’objectif principal de cette thèse était de mesurer l’influence de cette voie sur le phosphoprotéome et de découvrir de nouveaux substrats des kinases Erk1/2. Une étude phosphoprotéomique de cinétique d’inhibition pharmacologique de la voie de signalisation Erk1/2 a alors été entreprise. Le succès de cette étude était basé sur trois technologies clés, soit l’enrichissement des phosphopeptides avec le dioxyde de titane, la spectrométrie de masse haut débit et haute résolution, et le développement d’une plateforme bio-informatique nommée ProteoConnections. Cette plateforme permet d’organiser les données de protéomique, évaluer leur qualité, indiquer les changements d’abondance et accélérer l’interprétation des données. Une fonctionnalité distinctive de ProteoConnections est l’annotation des sites phosphorylés identifiés (kinases, domaines, structures, conservation, interactions protéiques phospho-dépendantes). Ces informations ont été essentielles à l’analyse des 9615 sites phosphorylés sur les 2108 protéines identifiées dans cette étude, soit le plus large ensemble rapporté chez le rat jusqu’à ce jour. L’analyse des domaines protéiques a révélé que les domaines impliqués dans les interactions avec les protéines, les acides nucléiques et les autres molécules sont les plus fréquemment phosphorylés et que les sites sont stratégiquement localisés pour affecter les interactions. Un algorithme a été implémenté pour trouver les substrats potentiels des kinases Erk1/2 à partir des sites identifiés selon leur motif de phosphorylation, leur cinétique de stimulation au sérum et l’inhibition pharmacologique de Mek1/2. Une liste de 157 substrats potentiels des kinases Erk1/2 a ainsi été obtenue. Parmi les substrats identifiés, douze ont déjà été rapportés et plusieurs autres ont des fonctions associées aux substrats déjà connus. Six substrats (Ddx47, Hmg20a, Junb, Map2k2, Numa1, Rras2) ont été confirmés par un essai kinase in vitro avec Erk1. Nos expériences d’immunofluorescence ont démontré que la phosphorylation de Hmg20a sur la sérine 105 par Erk1/2 affecte la localisation nucléocytoplasmique de cette protéine. Finalement, les phosphopeptides isomériques positionnels, soit des peptides avec la même séquence d’acides aminés mais phosphorylés à différentes positions, ont été étudiés avec deux nouveaux algorithmes. Cette étude a permis de déterminer leur fréquence dans un extrait enrichi en phosphopeptides et d’évaluer leur séparation par chromatographie liquide en phase inverse. Une stratégie analytique employant un des algorithmes a été développée pour réaliser une analyse de spectrométrie de masse ciblée afin de découvrir les isomères ayant été manqués par la méthode d’analyse conventionnelle.
Resumo:
Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association.
Resumo:
Kerala was the pioneer in modern seafood processing and exporting. But now the industry is Iacingalot of problems due to low productivity and deterioration in the quality of the products. only about 17% of the installed freezing capacity in sea food processing industry was reported to be utilised during 1979-80. The price of the export commodities its decided by the buyers based on international supply and demand pattern and based on the strength and weakness of dollar/yen. The only way to increase the profitability of the processors is to reduce the cost of production to the possible extent. The individual processors find it difficult to continue in this field due to low productivity and quality problems. The main objectives of the research are to find out how the production is being managed in the seafood processing(freezing) 17industry in Kerala and the reasons for low productivity and poor quality of the products. The study includes a detailed analysis of Location of the factories. Layout Purchase, production and storage patterns. Production planning and scheduling. Work Measurement of the processing of important products. Quality Control and Inspection. Management Information System
Resumo:
Introducción: los AVAD (años de vida ajustados a discapacidad) son la unidad de medida de la carga de enfermedad, permiten estimar las pérdidas de salud para una población con respecto a las consecuencias mortales y no mortales de las enfermedades. MetodologÃa: se siguió la metodologÃa del estudio de Carga Global de Enfermedad 2001. Para cálcular los AVAD´s se generan primero sus insumos: Años Vividos con Discapacidad y Años de Vida perdidos por muerte Prematura para lo cual se realizó una tabla de vida actual para la mortalidad general y se tomó la prevalencia de las enfermedades para la morbilidad. Resultados: la tasa de AVAD´s estimada en este estudio fue de 246 AVAD´s por mil personas, correspondientes a 366678 AVAD´s totales, concentrados en su mayorÃa en las enfermedades del grupo II con un total de 228 AVAD´s por mil habitantes, seguido del grupo I con 17,3 AVAD´s por mil habitantes; y con la menor participación, el grupo III con 0,6 AVAD´s. Los AVAD´s dependientes de la mortalidad fueron 2,4 por mil personas y 244 por discapacidad. La Enfermedad Pulmonar Obstructiva Crónica en ambos géneros ocupa el primer lugar como enfermedad generadora de AVAD´s. Discusión: el 17% de AVAD´s en este estudio pertenecen al grupo I, cifra que se aproxima a la obtenida en nuestro paÃs. El menor peso porcentual se encuentra en el número de AVAD´s del grupo III tanto para Colombia como para la E.P.S. Las limitaciones del estudio se relacionan con la calidad de los datos de los registros de mortalidad.
Resumo:
La búsqueda de información basada en las diferentes herramientas que el mercado ha desarrollado, ha convertido a la curva de rendimientos en una de las más utilizadas. Diferentes autores a nivel internacional se han preocupado por investigar y extraer información, teniendo en cuenta la formación de expectativas de los agentes sobre las tasas de interés, el comportamiento de diferentes variables macroeconómicas como el producto y la inflación. La evidencia encontrada es muy amplia, aunque no siempre en la misma vÃa. A nivel nacional, pocos autores se han preocupado por indagar sobre la curva de rendimientos como posible herramienta para predecir el comportamiento de variables macroeconómicas. Una posible explicación se relaciona con el hecho de que las bases de datos de la curva de rendimientos son muy recientes y la calidad de los datos no siempre es óptima debido al reciente desarrollo de los mercados financieros en Colombia. Sin embargo, la evidencia obtenida a través de estos estudios es valiosa.
Resumo:
Introducción: la insuficiencia renal crónica IRC ha aumentado su prevalencia en los últimos años pasando de 44.7 pacientes por millón en 1993 a 538.46 pacientes por millón en 2010, los pacientes quienes reciben terapia de remplazo renal hemodiálisis en Colombia cada vez tienen una mayor sobrevida. El incremento de los pacientes y el incremento de la sobrevida nos enfocan a mejorar la calidad de vida de los años de diálisis. MetodologÃa: se comparó la calidad de vida por medio del SF-36 en 154 pacientes con IRC estadio terminal en manejo con hemodiálisis, 77 pacientes incidentes y 77 pacientes prevalentes, pertenecientes a una unidad renal en Bogotá, Colombia. Resultados: se encontró una disminución de la calidad de vida en los componentes fÃsicos (PCS) y metales (MCS) de los pacientes de hemodiálisis en ambos grupos. En el modelo de regresión logÃstica la incapacidad laboral (p=0.05), el uso de catéter (p= 0,000), el bajo Ãndice de masa corporal (p=0.021), la hipoalbuminemia (p=0,033) y la anemia (p=0,001) fueron factores determinantes en un 78,9% de baja calidad de vida de PCS en los pacientes incidentes con respecto a los prevalentes. En el MCS de los pacientes incidentes vs. Prevalentes se encontró la hipoalbuminemia (p=0.007), la anemia (p=0.001) y el acceso por catéter (p=0.001) como factores determinantes en un 70.6% de bajo MCS Conclusiones: la calidad de vida de los pacientes de diálisis se encuentra afectada con mayor repercusión en el grupo de los pacientes incidentes, se debe mejorar los aspectos nutricionales, hematológicos y de acceso vascular en este grupo.