931 resultados para Clinics
Resumo:
Contexte De nombreuses études, utilisant des indicateurs de qualité variés, ont démontré que la qualité des soins pour la dépression n’est pas optimale en première ligne. Peu de ces études ont examiné les facteurs associés à la réception d’un traitement adéquat, en particulier en tenant compte simultanément des caractéristiques individuelles et organisationnelles. L'association entre un traitement adéquat pour un épisode dépressif majeur (EDM) et une amélioration des symptômes dépressifs n'est pas bien établie dans des conditions non-expérimentales. Les objectifs de cette étude étaient de : 1) réaliser une revue systématique des indicateurs mesurant la qualité du traitement de la dépression en première ligne ; 2) estimer la proportion de patients souffrant d’EDM qui reçoivent un traitement adéquat (selon les guides de pratique clinique) en première ligne ; 3) examiner les caractéristiques individuelles et organisationnelles associées à l’adéquation du traitement pour la dépression ; 4) examiner l'association entre un traitement minimalement adéquat au cours des 12 mois précédents et l'évolution des symptômes dépressifs à 6 et 12 mois. Méthodes La littérature sur la qualité du traitement de la dépression a été examinée en utilisant un ensemble de mots-clés (« depression », « depressive disorder », « quality », « treatment », « indicator », « adequacy », « adherence », « concordance », « clinical guideline » et « guideline ») et « 360search », un moteur de recherche fédérée. Les données proviennent d'une étude de cohorte incluant 915 adultes consultant un médecin généraliste, quel que soit le motif de consultation, répondant aux critères du DSM-IV pour l’EDM dans la dernière année, nichés dans 65 cliniques de première ligne au Québec, Canada. Des analyses multiniveaux ont été réalisées. Résultats Bien que majoritairement développés à partir de guides de pratique clinique, une grande variété d'indicateurs a été observée dans la revue systématique de littérature. La plupart des études retenues ont utilisé des indicateurs de qualité rudimentaires, surtout pour la psychothérapie. Les méthodes utilisées étaient très variées, limitant la comparabilité des résultats. Toutefois, quelque soit la méthode choisie, la plupart des études ont révélé qu’une grande proportion des personnes souffrant de dépression n’ont pas reçu de traitement minimalement adéquat en première ligne. Dans notre échantillon, l’adéquation était élevée (> 75 %) pour un tiers des indicateurs de qualité mesurés, mais était faible (< 60 %) pour près de la moitié des mesures. Un peu plus de la moitié de l'échantillon (52,2 %) a reçu au moins un traitement minimalement adéquat pour la dépression. Au niveau individuel, les jeunes adultes (18-24 ans) et les personnes de plus de 65 ans avaient une probabilité moins élevée de recevoir un traitement minimalement adéquat. Cette probabilité était plus élevée pour ceux qui ont un médecin de famille, une assurance complémentaire, un trouble anxieux comorbide et une dépression plus sévère. Au niveau des cliniques, la disponibilité de la psychothérapie sur place, l'utilisation d'algorithmes de traitement, et le mode de rémunération perçu comme adéquat étaient associés à plus de traitement adéquat. Les résultats ont également montré que 1) la réception d'au moins un traitement minimalement adéquat pour la dépression était associée à une plus grande amélioration des symptômes dépressifs à 6 et à 12 mois; 2) la pharmacothérapie adéquate et la psychothérapie adéquate étaient toutes deux associées à de plus grandes améliorations dans les symptômes dépressifs, et 3) l'association entre un traitement adéquat et l'amélioration des symptômes dépressifs varie en fonction de la sévérité des symptômes au moment de l'inclusion dans la cohorte, un niveau de symptômes plus élevé étant associé à une amélioration plus importante à 6 et à 12 mois. Conclusions Nos résultats suggèrent que des interventions sont nécessaires pour améliorer la qualité du traitement de la dépression en première ligne. Ces interventions devraient cibler des populations spécifiques (les jeunes adultes et les personnes âgées), améliorer l'accessibilité à la psychothérapie et à un médecin de famille, et soutenir les médecins de première ligne dans leur pratique clinique avec des patients souffrant de dépression de différentes façons, telles que le développement des connaissances pour traiter la dépression et l'adaptation du mode de rémunération. Cette étude montre également que le traitement adéquat de la dépression en première ligne est associé à une amélioration des symptômes dépressifs dans des conditions non-expérimentales.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
Commentaire / Commentary
Resumo:
La maladie de Crohn (MC) est une maladie chronique et récidivante du tractus gastro-intestinal. Dans la population pédiatrique, elle est très souvent accompagnée d'un retard de croissance (jusqu'à 88%). La MC se manifeste souvent autour de la puberté d’où l’importance du retard de croissance linéaire à ce stade crucial du développement de l’enfant. Une des questions essentielles est de savoir si le retard de croissance peut persister à l'âge adulte. La littérature est inconsistante sur ce point. En ce qui concerne les facteurs de risque potentiels, les corticostéroïdes (CS) qui sont la première ligne de traitement pour la majorité des patients, ont été largement impliqués. Bien qu'il existe des explications démontrant le mécanisme d’action des corticostéroïdes sur la croissance linéaire, les études cliniques impliquant l'utilisation CS soit à un retard de croissance temporaire ou permanent restent controverser et limiter. Nous avons examiné cette relation importante dans notre étude présente. Les principaux objectifs de l'étude sont les suivants: 1. D’évaluer la fréquence du retard de croissance chez le jeune atteint de la maladie de Crohn et qui a reçu des corticostéroïdes (CS) au cours de son traitement et 2. D’évaluer les facteurs de risque associés au retard de croissance temporaire ou permanent dans cette population. Méthodes : Afin d’atteindre nos objectifs, on a mené une étude de cohorte rétrospective. Cette cohorte comprend des patients qui ont été diagnostiqués de la MC (avant l’âge de 18 ans) à la clinique de gastroentérologie du Centre Hospitalier-Universitaire Sainte-Justine (CHUSJ) à Montréal. Ces patients ont tous reçus des CS en traitement initial(en excluant les rechutes). Les dossiers médicaux des patients ont été examinés de façon prospective afin de d’acquérir des informations sur : 1. La taille à chaque visite médicale; 2. La durée du traitement des CS; 3. L’administration de médication concomitante; 4. D’autres variables cliniques telles que l’âge au diagnostic, le sexe, la localisation et le comportement de la maladie. Pour ceux qui avaient atteints l’âge de 18 ans et qui ne fréquentaient plus la clinique, leur taille finale a été obtenue en les contactant par téléphone. Leurs parents ont aussi été contactés afin d’obtenir leur taille. On a converti nos résultats en scores de Z ou scores-Z ajustée pour l’âge et le sexe en utilisant la classification 2007 de l’Organisation Mondiale de la Santé(OMS). On a aussi calculé les tailles adultes cibles avec les données que nous avons récoltées. La raison de tout cela était de rendre nos résultats comparables aux études antérieures et renforcer ainsi la validité de nos trouvailles. Les enfants avec un score de Z<-1.64 (qui correspond au 5ème percentile) ont été considérés comme ayant un retard de croissance temporaire. Les scores-Z pour les tailles adultes finales ont été calculés en utilisant les mêmes normes de référence selon le sexe pour les personnes âgées de 17,9 ans. Un z-score <-1,64 a aussi été utilisé pour classer les individus avec un retard permanent. Ajouter à cela, ceux ayant une taille adulte finale <8,5cm de leur taille adulte cible (estimée à partir des hauteurs parentales) étaient considérés comme ayant un retard de croissance permanent. Des analyses de régression logistiques ont été faites pour examiner les facteurs associés à un retard de croissance temporaire et/ou permanent. Résultats : 221 patients ont été retenus. L’âge moyen de diagnostic était de 12.4 années et l’âge moyen de prise de CS était de 12.7 années. La répartition par sexe avait une légère prédominance masculine 54.3% contre 45.7% pour le sexe féminin. La majorité des patients étaient d’âge pubère (62.9%). On a surtout des patients avec une prédominance de maladie de type inflammatoire (89.1%) et localisé au niveau de l’iléo-colon (60.2%). Presque tous avaient pris une médication concomitante (88.7%) et n’avaient subi aucune chirurgie (95.9%). 19% des patients avaient un retard de croissance temporaire. L'analyse univariée a suggéré que le plus jeune âge au moment du diagnostic de la maladie et l'âge précoce à l'administration de stéroïdes étaient associés à un risque accru de retard de croissance temporaire. L’administration de CS à un jeune âge a été la seule variable (dans l’analyse multivariée) associée à un risque élevé de retard de croissance temporaire. En comparant à ceux ayant reçu des CS après l’âge de 14 ans (tertile 3), l’administration de CS à un âge précoce est fortement associé à un risque de retard de croissance (<11.6ans, OR: 6.9, 95% CI: 2.2-21.6, p-value: 0.001; 11.8ans-14ans, OR: 5.4, 95% CI: 1.7-17.1, p-value: 0.004). 8 (5.8%) sur 137 des sujets avaient une taille adulte finale <8,5cm de leur taille adulte cible. Dans l’analyse de régression linéaire multivariée, seul la variable de la taille adulte cible était associé à un changement de la taille adulte finale. Conclusion : Nos résultats suggèrent que la fréquence du retard de croissance permanent chez les enfants atteint de la MC est très faible. Un retard temporaire ou permanent de la croissance n’ont pas été associés à une augmentation de la quantité de CS administrée bien que l'administration de CS à un âge précoce soit associée à un retard de croissance temporaire.
Resumo:
Connaître le sexe d’un oiseau est important pour divers domaines notamment pour les vétérinaires, les écologistes ainsi que pour les éleveurs d’oiseaux qui veulent former des couples qui serviront à la reproduction. Plusieurs espèces d’oiseaux, juvéniles et adultes, n’ont pas de dimorphisme sexuel. L’utilisation de l’ADN est une façon rapide de déterminer le sexe à partir d’un échantillon de sang, de muscle, de plumes ou de fèces. Par contre, la méthode devrait être validée pour chaque espèce et idéalement, standardisée. Le premier objectif de cette étude est de développer une méthode de sexage par séquençage des oiseaux à partir des séquences du gène CHD, en utilisant les oiseaux de proie et les perroquets vus en clinique au Québec. Un deuxième objectif est de faire l’identification de l’espèce à sexer, à partir du gène mitochondrial COX-1 et aussi à partir des séquences CHD-Z et CHD-W, utilisés pour le sexage. Un troisième objectif est d’évaluer les séquences sorties (CHD-Z, CHD-W et COX-1) en vue d’une étude phylogénique. Une extraction d’ADN a été effectuée chez 27 espèces de perroquets, 34 espèces d’oiseaux de proie, une corneille (Corvus brachyrhynchos) et un poulet (Gallus gallus). Une amplification par PCR a été exécutée pour les exons partiels 23 et 24 du gène CHD. Le séquençage de cet amplicon permettait de savoir s’il s’agissait d’un mâle (séquence simple CHD-Z) ou d’une femelle (séquences CHD-Z et CHD-W qui se chevauchent). Afin d’avoir des séquences CHD-W distinctes, un sous-clonage a été fait chez les femelles de chaque espèce. De cette manière, les séquences partielles du gène CHD, Z et W, ont été trouvées pour les espèces échantillonnées. Une étude phylogénique a été effectuée avec les séquences de COX-1, CHD-Z et CHD-W grâce au site « Clustal-Omega ». La méthode de sexage des oiseaux par séquençage du gène CHD est standard et efficace. Le gène COX-1 permet une meilleure identification des espèces parentes et le gène CHD-Z est le plus utile pour étudier la phylogénie profonde.
Resumo:
Die vorliegende Dissertation betrachtet institutionsinterne lokale (Critical-)Incident-Reporting-Systeme ((C)IRS) als eine Möglichkeit zum Lernen aus Fehlern und unerwünschten kritischen Ereignissen (sogenannte Incidents) im Krankenhaus. Die Notwendigkeit aus Incidents zu lernen, wird im Gesundheitswesen bereits seit den 1990er Jahren verstärkt diskutiert. Insbesondere risikoreichen Organisationen, in denen Incidents fatale Konsequenzen haben können, sollten umfassende Strategien erarbeiten, die sie vor Fehlern und unerwünschten Ereignissen schützen und diese als Lernpotenzial nutzen können. Dabei können lokale IRS als ein zentraler Bestandteil des Risikomanagements und freiwillige Dokumentationssysteme im Krankenhaus ein Teil dieser Strategie sein. Sie können eine Ausgangslage für die systematische Erfassung und Auswertung von individuellen Lerngelegenheiten und den Transfer zurück in die Organisation schaffen. Hierfür sind eine lernförderliche Gestaltung, Implementierung und Einbettung lokaler IRS eine wichtige Voraussetzung. Untersuchungen über geeignete lerntheoretisch fundierte und wirkungsvolle IRS-Modelle und empirische Daten fehlen bisher im deutschsprachigen Raum. Einen entsprechenden Beitrag leistet die vorliegende Fallstudie in einem Schweizer Universitätsspital (800 Betten, 6.100 Mitarbeitende). Zu diesem Zweck wurde zuerst ein Anforderungsprofil an lernförderliche IRS aus der Literatur abgeleitet. Dieses berücksichtigt zum einen literaturbasierte Kriterien für die Gestaltung und Nutzung aus der IRS-Literatur, zum anderen die aus der Erziehungswissenschaft und Arbeitspsychologie entlehnten Gestaltungsbedingungen und Erfolgskriterien an organisationales Lernen. Das Anforderungsprofil wurde in drei empirischen Teilstudien validiert und entsprechend adaptiert. In der ersten empirischen Teilstudie erfolgte eine Standortbestimmung der lokalen IRS. Die Erhebung erfolgte in vier Kliniken mittels Dokumentenanalyse, leitfadengestützter Interviews (N=18), sieben strukturierter Gruppendiskussionen und teilnehmender Beobachtungen über einen Zeitraum von 22 Monaten. Erfolgskritische IRS-Merkmale wurden identifiziert mit dem Ziel einer praxisgerechten lernförderlichen Systemgestaltung und Umsetzung von Incident Reporting unter Betrachtung von organisationalen Rahmenbedingungen, Lernpotenzialen und Barrieren. Die zweite Teilstudie untersuchte zwei Fallbeispiele organisationalen Lernens mittels Prozessbegleitung, welche zu einem verwechslungssicheren Design bei einem Medizinalprodukt und einer verbesserten Patientenidentifikation in Zusammenhang mit Blutentnahmen führten. Für das organisationale Lernen im Spital wurden dabei Chancen, Barrieren und Gestaltungsansätze abgeleitet, wie erwünschte Veränderungen und Lernen unter Nutzung von IRS initiiert werden können und dabei ein besseres Gesundheitsresultat erreicht werden kann. Die dritte Teilstudie überprüfte, inwiefern die Nutzung und Implementierung lokaler IRS mittels einer Mitarbeitervollbefragung zur Sicherheitskultur gefördert werden kann. Hierfür wurde eine positive Interaktion, zwischen einer starken Sicherheitskultur und der Bereitschaft ein IRS zu implementieren und Incidents zu berichten, angenommen. Zum Einsatz kam eine deutschsprachige Version des Hospital Survey on Patient Safety Culture (Patientensicherheitsklimainventar) mit einem Rücklauf von 46.8% (2.897 gültige Fragebogen). In 23 von 37 Kliniken führte laut einer Nachbefragung die Sicherheitskulturbefragung zum Implementierungsentscheid. Dies konnte durch Monitoring der IRS-Nutzung bestätigt werden. Erstmals liegen mit diesen Studien empirische Daten für eine wirkungsvolle und lernförderliche Gestaltung und Umsetzung von lokalen IRS am Beispiel einer Schweizer Gesundheitsorganisation vor. Die Ergebnisse der Arbeit zeigen Chancen und Barrieren für IRS als Berichts- und Lernsysteme im Krankenhaus auf. Als Resultat unsachgemäss gestalteter und implementierter IRS konnte dabei vor allem Lernverhinderung infolge IRS aufgezeigt werden. Blinder Aktionismus und eine fehlende Priorisierung von Patientensicherheit, unzureichende Kompetenzen, Qualifikationen und Ressourcen führten dabei zur Schaffung neuer Fehlerquellen mit einer Verstärkung des Lernens erster Ordnung. Eine lernförderliche Gestaltung und Unterhaltung der lokalen IRS, eingebettet in eine klinikumsweite Qualitäts- und Patientensicherheitsstrategie, erwiesen sich hingegen als wirkungsvoll im Sinne eines organisationalen Lernens und eines kontinuierlichen Verbesserungsprozesses. Patientensicherheitskulturbefragungen erwiesen sich zudem bei entsprechender Einbettung als effektives Instrument, um die Implementierung von IRS zu fördern. Zwölf Thesen zeigen in verdichteter Form auf, welche Gestaltungsprinzipien für IRS als Instrument des organisationalen Lernens im Rahmen des klinischen Risikomanagements und zur Förderung einer starken Patientensicherheitskultur zu berücksichtigen sind. Die Erkenntnisse aus den empirischen Studien münden in ein dialogorientiertes Rahmenmodell organisationalen Lernens unter Nutzung lokaler IRS. Die Arbeit zeigt damit zum einen Möglichkeiten für ein Lernen auf den verschiedenen Ebenen der Organisation auf und weist auf die Notwendigkeit einer (Re-)Strukturierung der aktuellen IRS-Diskussion hin.
Resumo:
El propósito de esta revisión fue demostrar que el Síndrome Doloroso Regional Complejo, se convirtió en el recurso seudocientífico que explica una evolución no convencional de patologías relativamente anodinas, diagnosticándose sin la rigurosidad ajustada a los criterios, esencialmente clínicos, propuestos por las organizaciones internacionales que estudian este problema. Para probar esa hipótesis, los investigadores efectuamos revisión de historias clínicas de pacientes que, habiendo presentado una contingencia de origen ocupacional, de la que se derivaron distinto tipo de lesiones que denominamos diagnóstico primario, en algún momento de su evolución y sin importar la especialidad que los estuviere tratando, se les realizó un diagnóstico de SDRC con el cual fueron remitidos a Clínica del Dolor para valoración y manejo. La revisión de los expedientes se realizó a la luz de tres distintas, aunque entrañablemente relacionadas, escalas para el diagnóstico de presunción del mencionado síndrome: La propuesta por Gibbons en el año 1992, la formulada por la Asociación Internacional para el Estudio del Dolor (IASP) en 1994 y la emanada del Consenso de Budapest en el 2003, que pretende llenar las imprecisiones de la escala IASP. Los investigadores revisamos 89 expedientes de los cuales 63 cumplieron con los criterios de selección de caso; encontrando que en el 68% de estos, los criterios diagnósticos propuestos por las tres escalas, no se cumplieron y que en el 28,5%, las Clínicas del Dolor tampoco cumplieron con su rol de autoridad técnica, en la medida en que avalaron una condición no probada suficientemente.
Resumo:
El siguiente trabajo de grado tiene como propósito principal analizar los procesos realizados en Clínicas y Hospitales con respecto a la asignación de habitaciones para pacientes ingresando a estas instituciones médicas y con respecto a los procesos de desinfección y aseo que se llevan a cabo ahí mismo. El proyecto de mejoramiento del proceso hospitalario de asignación de camas y desinfección se basó en una auditoría realizada por los autores del mismo a la Clínica Nueva en la ciudad de Bogotá durante el primer semestre del año en curso. El trabajo se divide en cuatro partes: situación actual, diagnóstico, situación propuesta y conclusiones con sus respectivas recomendaciones. En la situación actual se observa la manera en la que se realizan los procesos dentro de la clínica en evaluación y cuyo diagnóstico se expone en la segunda parte. Luego se propone una situación en la cual el proceso de asignación de camas y de desinfección dentro de la clínica sería el óptimo, para así finalizar con las conclusiones del trabajo y las respectivas recomendaciones para poder implementar los planes de mejora establecidos a los largo del escrito.
Resumo:
El desarrollo del siguiente documento, diseña un plan de intervención para las Instituciones Prestadoras de Salud (IPS), con el fin de establecer mínimos de funcionamiento y de manejo de los aportes financieros de Hospitales y Clínicas en Cundinamarca especialmente el Hospital San Rafael de Facatativá y Hospital de Santa Bárbara de Vergara. Fue a partir del acercamiento a través de un trabajo de campo a las Instituciones mencionadas que se logró conocer y determinar las relaciones de la crisis en la salud y sus efectos tanto en las IPSs como a la sociedad atendida en el departamento. La intermediación entre los recursos del sistema, el dilema entre expansión y calidad del servicio y la legislación son las variables claves que impactan el desarrollo del sector Salud.
Resumo:
La inducción del trabajo de parto ha demostrado aumentar simultáneamente las tasas de cesárea, especialmente en nulíparas con cérvix clínicamente desfavorables. Ya que la valoración clínica del cérvix es un método subjetivo, aunque ampliamente utilizado, el objetivo del presente estudio fue determinar la utilidad de la medición ecográfica de la longitud cervical comparándola con el puntaje de Bishop, en la predicción del éxito de la inducción del parto en las pacientes nulíparas en el servicio de Obstetricia del Hospital Universitario Clínica San Rafael, Bogotá. Materiales y métodos: Se realizó un estudio observacional, evaluando una cohorte prospectiva de 80 gestantes a quienes se les realizó valoración ultrasonográfica y clínica del cérvix antes de iniciar la inducción del trabajo de parto. Resultados: El análisis bivariado demostró que las pacientes con longitud cervical >20mm tienen 1.57 veces la probabilidad de tener parto por cesárea (RR 1.57 IC95% 1.03-2.39 p <0.05). De manera similar las pacientes con puntaje de Bishop 0 a 3 tienen 2.33 veces la probabilidad de tener parto por cesárea (RR 2.33 IC95% 1.28-4.23 p <0.05). La regresión logística binaria demostró que la edad materna y la longitud cervical fueron los únicos parámetros independientes con significancia estadística para predecir el éxito de la inducción. Conclusiones: La medición ecográfica de la longitud cervical tiene mayor utilidad que la valoración clínica del cérvix en la predicción del éxito de la inducción del parto en nulíparas.
Resumo:
Introducción: Los factores de riesgo de la enfermedad cardiovascular (FRECV) pueden estar presentes desde la infancia y predicen la enfermedad cardiovascular del adulto. Objetivo: Evaluar la prevalencia de FRECV en niños de 3 a 17 años hijos de Enfermeras de la Fundación CardioInfantil - Instituto de cardiología (FCI). Métodos: Estudio de corte transversal analítico. Resultados: 118 niños, edad promedio 7,4 años, desviación estándar 3,86, la mayoría eutróficos 72,0%. Presentaron FRECV como malos hábitos alimenticios 89,0%, sedentarismo 78,8%, exposición a tabaco 19,5%, historia familiar de riesgo cardiovascular 16,1%, sobrepeso 15,3% y obesidad 12,7%. No se encontraron diferencias entre factores de riesgo entre niños y niñas.El sedentarismo en niños con sobrepeso u obesidad fue del 90,9% y en niños eutróficos del 36,5%. Los malos hábitos alimentarios en niños con sobrepeso u obesidad fueron 84,8% y en niños eutróficos 42,4%. Los adolescentes presentaron una mayor exposición a tabaco en comparación con los preescolares y escolares, al igual que una mayor proporción de malos hábitos alimenticios en comparación con ambos grupos. De la totalidad de la población de estudio, el 97,5% presentó al menos un FRECV, y el 42,4% 3 o más FRECV. La presencia de ≥3 FRECV fue mayor en obesos al compararlos con los niños en sobrepeso y eutróficos. Conclusiones: Los resultados del estudio indican que los niños de 3 a 17 años evaluados presentan una alta carga de FRECV, en especial en aquellos con sobrepeso y obesidad.
Resumo:
La prevalencia de coledocolitiasis es de un 10 a 20%. 10-20% tienen coledocolitiasis gigante, es decir presencia de cálculos mayores de 15 mm, aumentando la morbimortalidad por complicaciones. El objetivo principal fue determinar la frecuencia de coledocolitiasis gigante, la presencia de factores predictores del éxito o fracaso del manejo endoscópico. El éxito en el manejo endoscópico está entre 80 y 90%, un 20% requieren cirugía de exploración biliar. Se realizó la búsqueda de las variables utilizando el instrumento para la recolección de la información. Se realizó un análisis univariado y bivariado de las variables medidas y se utilizo STATA versión 10. Como principal resultado, se encontró que la frecuencia de coledocolitiasis gigante en nuestra población fue del 10%, el éxito del manejo endoscopio fue del 89.23% y el factor predictor mas fuerte para el éxito fue el diámetro del cálculo, siendo mayor para cálculos de menos de 19.09 mm. Como conclusión, en nuestro estudio, la frecuencia de coledocolitiasis gigante es cercana a la conocida en la literatura mundial. El manejo endoscópico en nuestro estudio es el pilar en estos casos, teniendo probabilidad de éxito en el manejo que es igual a la publicada en los estudios mundiales, que existe la probabilidad que el tamaño del cálculo mayor a 19 mm de diámetro indique mayor tasa de fracaso y requerimiento de técnicas endoscópicas avanzadas para su éxito. Se requieren estudios, con mayor número de pacientes para determinar la validez estadística de estos resultados.
Resumo:
Introducción: La preeclampsia severa es una de las principales patologías que afectan a las mujeres embarazadas, sus complicaciones tienen un alto impacto en la salud del binomio madre-hijo. Materiales y métodos: Se realizo una serie de casos, durante un periodo de 1 año se revisaron las historias clínicas de las pacientes que ingresaron a la unidad de cuidado intensivo obstétrico de la Clínica Orquídeas, con diagnóstico de preeclampsia severa. Se describieron los datos demográficos y las complicaciones. Se realizó análisis univariado con las variables de interés y se calcularon diferencias significativas por medio del test exacto de Fisher. Resultados: Se registraron 196 pacientes con preeclampsia severa en el periodo de estudio. Las complicaciones mas frecuentes fueron síndrome HELLP (30,6%), insuficiencia renal aguda (16,3%) y edema pulmonar (10,2%); el ingreso de las pacientes con preeclampsia severa a la UCIO en embarazo aumenta el riesgo de sufrir complicaciones. El síndrome de HELLP se presento con mayor frecuencia en pacientes que realizaron 6 o mas controles prenatales (p=0.066). Discusión: Los resultados evidencian una prevalencia de preeclampsia severa mayor que la observada por otros autores, probablemente por ser una UCI exclusivamente obstétrica. Las complicaciones mas frecuentes son concordantes con otros estudios publicados. El mayor riesgo de complicaciones asociadas en pacientes que ingresan embarazadas a la UCIO podría estar en relación a la severidad de la patología. Se requieren estudios analíticos para establecer asociaciones entre cada una de las complicaciones y sus factores condicionantes.
Resumo:
Introducción: La hemorragia digestiva (HVDA) es la principal causa de descompensación en pacientes con cirrosis. Caracterizar el estado ácido-base de estos pacientes sería útil para reflejar la severidad del sangrado e identificar pacientes con alto riesgo de complicación. Objetivo: Describir el estado ácido-base de los pacientes que consultaron a urgencias con cirrosis descompensada por HVDA y posteriormente fueron manejados en la unidad de cuidado intensivo (UCI) o fallecieron. Métodos: Se realizó el análisis del estado ácido-base a 10 pacientes con estas características, utilizando tres métodos distintos. Resultados: El perfil ácido-base encontrado fue: acidosis metabólica por iones no medidos, acidosis láctica, alcalosis por hipoalbuminemia y anión gap elevado en la mayoría de pacientes. Conclusiones: La teoría de Henderson-Hasselbach no fue suficiente para identificar pacientes con alto riesgo, debería implementarse concomitantemente el análisis anión gap, base déficit y el método físico–químico, para entender los fenómenos acido base de estos pacientes.
Resumo:
Introducción: la insuficiencia renal crónica IRC ha aumentado su prevalencia en los últimos años pasando de 44.7 pacientes por millón en 1993 a 538.46 pacientes por millón en 2010, los pacientes quienes reciben terapia de remplazo renal hemodiálisis en Colombia cada vez tienen una mayor sobrevida. El incremento de los pacientes y el incremento de la sobrevida nos enfocan a mejorar la calidad de vida de los años de diálisis. Metodología: se comparó la calidad de vida por medio del SF-36 en 154 pacientes con IRC estadio terminal en manejo con hemodiálisis, 77 pacientes incidentes y 77 pacientes prevalentes, pertenecientes a una unidad renal en Bogotá, Colombia. Resultados: se encontró una disminución de la calidad de vida en los componentes físicos (PCS) y metales (MCS) de los pacientes de hemodiálisis en ambos grupos. En el modelo de regresión logística la incapacidad laboral (p=0.05), el uso de catéter (p= 0,000), el bajo índice de masa corporal (p=0.021), la hipoalbuminemia (p=0,033) y la anemia (p=0,001) fueron factores determinantes en un 78,9% de baja calidad de vida de PCS en los pacientes incidentes con respecto a los prevalentes. En el MCS de los pacientes incidentes vs. Prevalentes se encontró la hipoalbuminemia (p=0.007), la anemia (p=0.001) y el acceso por catéter (p=0.001) como factores determinantes en un 70.6% de bajo MCS Conclusiones: la calidad de vida de los pacientes de diálisis se encuentra afectada con mayor repercusión en el grupo de los pacientes incidentes, se debe mejorar los aspectos nutricionales, hematológicos y de acceso vascular en este grupo.