1000 resultados para SIDA - TRATAMIENTO - EFECTOS ADVERSOS
Resumo:
La usabilidad es un atributo de la calidad del software que se encuentra en la mayoría de las clasificaciones. En este contexto, se entiende por usabilidad la medida en que un producto satisface las necesidades de los stakeholders para alcanzar determinados objetivos de eficacia, eficiencia y satisfacción sin efectos adversos en un contexto específico de uso. En este contexto, no es de extrañar que la usabilidad sea cada vez más reconocida como uno de los factores críticos para la aceptación de un sistema software. En la literatura se encuentran recomendaciones para mejorar la usabilidad de los sistemas software. Sin embargo, no existen datos empíricos que demuestren cómo estas recomendaciones contribuyen positiva o negativamente a cada atributo de usabilidad. En este contexto, el objetivo de la tesis doctoral es la obtención de evidencias empíricas sobre el impacto de la inclusión de mecanismos de usabilidad en un sistema software, más concretamente en los atributos de eficacia, eficiencia y satisfacción-- En esta tesis doctoral se trabaja con mecanismos de usabilidad con gran impacto en la arquitectura software, ya que los mismos deben ser especialmente considerados durante el proceso de desarrollo software. Para obtener evidencias empíricas sobre la inclusión de dichos mecanismos, se ha realizado un experimento piloto y 4 experimentos definitivos utilizando aplicaciones software especialmente desarrolladas para tal fin. Una vez realizada la contrastación empírica de la influencia de estos mecanismos para diferentes sistemas software se pueden realizar las siguientes recomendaciones generales: -La inclusión de cada uno de los mecanismos considerados aumenta considerablemente la satisfacción del usuario en su interacción con las aplicaciones software. -La inclusión de aquellos mecanismos que introducen cuadros de interacción adicionales, disminuye la eficiencia de los usuarios, ya que aumenta el tiempo de duración de las tareas. -Existen una serie de mecanismos que como consecuencia de su ausencia en las aplicaciones resulta imposible la realización de las tareas asociadas a los mismos. Dentro de éste grupo de mecanismos se encuentran aquellos que permiten cancelar o deshacer acciones previamente tomadas y aquellos que provean ayuda en la introducción de información en formularios. Esto implica que su presencia permite la realización exitosa de las tareas y como consecuencia la interacción es mucho más eficaz. En definitiva, se ha encontrado que los distintos mecanismos de usabilidad tienen un impacto diferente en cada atributo, dependiendo su inclusión del/los atributos a potenciar en cada proyecto. Usability is an aspect of software quality that´s found in most classifications. In this context usability is understood as the measure in which a product satisfies the needs of the stakeholders in order to reach certain effectiveness, efficiency and satisfaction goals without adverse sideeffects in a specific context of use. It´s no wonder usability is increasingly being recognized as one of the critical factors for the acceptance of a software system. Recommendations are found in literature to improve the usability of software systems. Nevertheless, there is no empirical data that shows how these recommendations contribute positively or negatively to each usability aspect. In this context, the objective of this doctoral thesis is to obtain empirical evidence on the impact of the inclusion of usability mechanisms in a software system, specifically in the attributes of effectiveness, efficiency and satisfaction. This doctoral thesis deals with usability mechanisms of great impact in software architecture, since they have to be considered during the software development process. In order to get empirical evidence on the inclusion of such mechanisms, a pilot experiment and four definitive experiments have been performed through software applications especially developed for this end. Once the empirical assessment of the influence of these mechanisms on different software systems has been performed, the following general recommendations can be made: -The inclusion of each of the considered mechanisms considerably increases the user´s satisfaction in his interaction with software applications. -The inclusion of those mechanisms that introduce additional interaction frames diminishes the efficiency of the users, since it increases task duration time. -As a consequence of being absent in applications, there is a series of mechanisms whose associated tasks are impossible to perform. Within this group we find those mechanisms that allow cancelling or undoing previous actions, and those that provide help with the introduction of information in forms. This implies that their presence allows the successful completion of tasks, and as a consequence, the interaction is much more effective. In summary, it has been found that the diverse usability mechanisms has a different impact on each attribute, and their inclusion depends on the attribute or attributes to enhance in each project.
Resumo:
Las proyecciones muestran un incremento en la demanda de energía primaria a nivel global para los próximos diez años. Para disminuir los efectos adversos sobre el medio ambiente del uso de combustibles fósiles, las políticas energéticas de España y la Unión Europea tienen como uno de sus objetivos principales incrementar el uso fuentes renovables en la producción energética para el año 2020.La biomasa es una de las principales fuentes renovables para la generación de energía primaria en España. Sin embargo su alto contenido en humedad y su baja densidad energética entre otras características de este material, suponen desventajas para su uso directo como combustible. Los procesos de conversión termoquímica son una alternativa para la obtención de productos sólidos, líquidos y gases de mejor potencial energético utilizando biomasa como materia prima. Esta tesis doctoral tiene como objetivo general el estudio y la optimización de procesos de conversión termoquímica de biomasa. Para cumplir con este objetivo el trabajo combina análisis experimentales y de simulación de distintas tecnologías de transformación termoquímica de biomasa. Antes de iniciar los estudios experimentales de los procesos de transformación termoquímica, se realiza una caracterización química, física y combustible de ocho de biomasas de naturaleza lignocelulósica y amilácea. Esta caracterización incluye el análisis del comportamiento termoquímico utilizando las técnicas de termogravimetría (TG-DTG), TG-FTir y pirólisis analítica (Py-GC/MS). Después de la caracterización se seleccionan tres tipos de biomasas (madera de pino, hueso de aceituna y hueso de aguacate) que son utilizadas como materia prima en el estudio experimental de procesos de gasificación, torrefacción y pirólisis en distintos sistemas de reacción de escala de laboratorio. Estos estudios se realizan para optimizar las condiciones de operación de cada uno de los procesos y caracterizar los productos obtenidos. El trabajo realizado incluye el rediseño y puesta en marcha de un sistema de gasificación de lecho fluidizado así como de un sistema de torrefacción y pirólisis en horno rotatorio. Los estudios experimentales incluyen un análisis de distintas condiciones de operación (temperatura, composición atmosférica, tiempo de residencia, condiciones fluidomecánicas, tamaño de partícula del combustible, condiciones de condensación) con el objetivo de determinar las condiciones óptimas de operación de cada uno de los procesos analizados respecto de las características químicas, físicas y combustibles de los productos. Para la optimización de las condiciones de operación del sistema de gasificación de lecho fluidizado se realiza un análisis complementario del comportamiento hidrodinámico utilizando la metodología de análisis computacional fluidodinámico o mecánica de fluidos computacional (CFD). Los resultados obtenidos permiten determinar las condiciones óptimas de operación del sistema de reacción de lecho fluidizado. Finalmente, la tesis incluye el análisis de una planta comercial de gasificación localizada en Júndiz (Álava, España), centrándose en la caracterización del material particulado eliminado de la corriente de gas generado, con el objetivo de determinar su proceso de formación, características y establecer posibles aplicaciones comerciales.
Resumo:
Determinar con buena precisión la posición en la que se encuentra un terminal móvil, cuando éste se halla inmerso en un entorno de interior (centros comerciales, edificios de oficinas, aeropuertos, estaciones, túneles, etc), es el pilar básico sobre el que se sustentan un gran número de aplicaciones y servicios. Muchos de esos servicios se encuentran ya disponibles en entornos de exterior, aunque los entornos de interior se prestan a otros servicios específicos para ellos. Ese número, sin embargo, podría ser significativamente mayor de lo que actualmente es, si no fuera necesaria una costosa infraestructura para llevar a cabo el posicionamiento con la precisión adecuada a cada uno de los hipotéticos servicios. O, igualmente, si la citada infraestructura pudiera tener otros usos distintos, además del relacionado con el posicionamiento. La usabilidad de la misma infraestructura para otros fines distintos ofrecería la oportunidad de que la misma estuviera ya presente en las diferentes localizaciones, porque ha sido previamente desplegada para esos otros usos; o bien facilitaría su despliegue, porque el coste de esa operación ofreciera un mayor retorno de usabilidad para quien lo realiza. Las tecnologías inalámbricas de comunicaciones basadas en radiofrecuencia, ya en uso para las comunicaciones de voz y datos (móviles, WLAN, etc), cumplen el requisito anteriormente indicado y, por tanto, facilitarían el crecimiento de las aplicaciones y servicios basados en el posicionamiento, en el caso de poderse emplear para ello. Sin embargo, determinar la posición con el nivel de precisión adecuado mediante el uso de estas tecnologías, es un importante reto hoy en día. El presente trabajo pretende aportar avances significativos en este campo. A lo largo del mismo se llevará a cabo, en primer lugar, un estudio de los principales algoritmos y técnicas auxiliares de posicionamiento aplicables en entornos de interior. La revisión se centrará en aquellos que sean aptos tanto para tecnologías móviles de última generación como para entornos WLAN. Con ello, se pretende poner de relieve las ventajas e inconvenientes de cada uno de estos algoritmos, teniendo como motivación final su aplicabilidad tanto al mundo de las redes móviles 3G y 4G (en especial a las femtoceldas y small-cells LTE) como al indicado entorno WLAN; y teniendo siempre presente que el objetivo último es que vayan a ser usados en interiores. La principal conclusión de esa revisión es que las técnicas de triangulación, comúnmente empleadas para realizar la localización en entornos de exterior, se muestran inútiles en los entornos de interior, debido a efectos adversos propios de este tipo de entornos como la pérdida de visión directa o los caminos múltiples en el recorrido de la señal. Los métodos de huella radioeléctrica, más conocidos bajo el término inglés “fingerprinting”, que se basan en la comparación de los valores de potencia de señal que se están recibiendo en el momento de llevar a cabo el posicionamiento por un terminal móvil, frente a los valores registrados en un mapa radio de potencias, elaborado durante una fase inicial de calibración, aparecen como los mejores de entre los posibles para los escenarios de interior. Sin embargo, estos sistemas se ven también afectados por otros problemas, como por ejemplo los importantes trabajos a realizar para ponerlos en marcha, y la variabilidad del canal. Frente a ellos, en el presente trabajo se presentan dos contribuciones originales para mejorar los sistemas basados en los métodos fingerprinting. La primera de esas contribuciones describe un método para determinar, de manera sencilla, las características básicas del sistema a nivel del número de muestras necesarias para crear el mapa radio de la huella radioeléctrica de referencia, junto al número mínimo de emisores de radiofrecuencia que habrá que desplegar; todo ello, a partir de unos requerimientos iniciales relacionados con el error y la precisión buscados en el posicionamiento a realizar, a los que uniremos los datos correspondientes a las dimensiones y realidad física del entorno. De esa forma, se establecen unas pautas iniciales a la hora de dimensionar el sistema, y se combaten los efectos negativos que, sobre el coste o el rendimiento del sistema en su conjunto, son debidos a un despliegue ineficiente de los emisores de radiofrecuencia y de los puntos de captura de su huella. La segunda contribución incrementa la precisión resultante del sistema en tiempo real, gracias a una técnica de recalibración automática del mapa radio de potencias. Esta técnica tiene en cuenta las medidas reportadas continuamente por unos pocos puntos de referencia estáticos, estratégicamente distribuidos en el entorno, para recalcular y actualizar las potencias registradas en el mapa radio. Un beneficio adicional a nivel operativo de la citada técnica, es la prolongación del tiempo de usabilidad fiable del sistema, bajando la frecuencia en la que se requiere volver a capturar el mapa radio de potencias completo. Las mejoras anteriormente citadas serán de aplicación directa en la mejora de los mecanismos de posicionamiento en interiores basados en la infraestructura inalámbrica de comunicaciones de voz y datos. A partir de ahí, esa mejora será extensible y de aplicabilidad sobre los servicios de localización (conocimiento personal del lugar donde uno mismo se encuentra), monitorización (conocimiento por terceros del citado lugar) y seguimiento (monitorización prolongada en el tiempo), ya que todos ellas toman como base un correcto posicionamiento para un adecuado desempeño. ABSTRACT To find the position where a mobile is located with good accuracy, when it is immersed in an indoor environment (shopping centers, office buildings, airports, stations, tunnels, etc.), is the cornerstone on which a large number of applications and services are supported. Many of these services are already available in outdoor environments, although the indoor environments are suitable for other services that are specific for it. That number, however, could be significantly higher than now, if an expensive infrastructure were not required to perform the positioning service with adequate precision, for each one of the hypothetical services. Or, equally, whether that infrastructure may have other different uses beyond the ones associated with positioning. The usability of the same infrastructure for purposes other than positioning could give the opportunity of having it already available in the different locations, because it was previously deployed for these other uses; or facilitate its deployment, because the cost of that operation would offer a higher return on usability for the deployer. Wireless technologies based on radio communications, already in use for voice and data communications (mobile, WLAN, etc), meet the requirement of additional usability and, therefore, could facilitate the growth of applications and services based on positioning, in the case of being able to use it. However, determining the position with the appropriate degree of accuracy using these technologies is a major challenge today. This paper provides significant advances in this field. Along this work, a study about the main algorithms and auxiliar techniques related with indoor positioning will be initially carried out. The review will be focused in those that are suitable to be used with both last generation mobile technologies and WLAN environments. By doing this, it is tried to highlight the advantages and disadvantages of each one of these algorithms, having as final motivation their applicability both in the world of 3G and 4G mobile networks (especially in femtocells and small-cells of LTE) and in the WLAN world; and having always in mind that the final aim is to use it in indoor environments. The main conclusion of that review is that triangulation techniques, commonly used for localization in outdoor environments, are useless in indoor environments due to adverse effects of such environments as loss of sight or multipaths. Triangulation techniques used for external locations are useless due to adverse effects like the lack of line of sight or multipath. Fingerprinting methods, based on the comparison of Received Signal Strength values measured by the mobile phone with a radio map of RSSI Recorded during the calibration phase, arise as the best methods for indoor scenarios. However, these systems are also affected by other problems, for example the important load of tasks to be done to have the system ready to work, and the variability of the channel. In front of them, in this paper we present two original contributions to improve the fingerprinting methods based systems. The first one of these contributions describes a method for find, in a simple way, the basic characteristics of the system at the level of the number of samples needed to create the radio map inside the referenced fingerprint, and also by the minimum number of radio frequency emitters that are needed to be deployed; and both of them coming from some initial requirements for the system related to the error and accuracy in positioning wanted to have, which it will be joined the data corresponding to the dimensions and physical reality of the environment. Thus, some initial guidelines when dimensioning the system will be in place, and the negative effects into the cost or into the performance of the whole system, due to an inefficient deployment of the radio frequency emitters and of the radio map capture points, will be minimized. The second contribution increases the resulting accuracy of the system when working in real time, thanks to a technique of automatic recalibration of the power measurements stored in the radio map. This technique takes into account the continuous measures reported by a few static reference points, strategically distributed in the environment, to recalculate and update the measurements stored into the map radio. An additional benefit at operational level of such technique, is the extension of the reliable time of the system, decreasing the periodicity required to recapture the radio map within full measurements. The above mentioned improvements are directly applicable to improve indoor positioning mechanisms based on voice and data wireless communications infrastructure. From there, that improvement will be also extensible and applicable to location services (personal knowledge of the location where oneself is), monitoring (knowledge by other people of your location) and monitoring (prolonged monitoring over time) as all of them are based in a correct positioning for proper performance.
Resumo:
La ingesta de bebidas alcohólicas se convierte en un problema social ya que su aceptación cultural fomenta su uso generalizado, frecuente y sin control; de esta forma, se desencadenan efectos adversos de distinta índole producidos por un consumo de tipo desmedido. La tendencia actual indica que el inicio del consumo de alcohol se da a edad temprana, normalmente durante la adolescencia. El estilo de consumo juvenil se caracteriza por la ingesta de grandes cantidades de alcohol en un plazo corto de tiempo, generalmente en fin de semana, que alterna periodos de embriaguez con abstinencia entre los episodios de consumo. Este consumo intensivo de alcohol (CIA) constituye un riesgo para la salud de los jóvenes, quienes se encuentran en una importante etapa de neuromaduración, lo que les predispone a sufrir variaciones estructurales y funcionales en su sistema nervioso. En estas edades algunas capacidades como la memoria episódica y las funciones ejecutivas están en un estado de especialización y los circuitos neurofuncionales que les sustentan pueden ser vulnerables a factores perjudiciales como el consumo intensivo de alcohol. Nuestro objetivo principal es conocer el efecto del consumo intensivo de alcohol (CIA) en jóvenes sobre el rendimiento en memora episódica, atención y funciones ejecutivas así como en qué medida afecta a la relación entre estos procesos. Para llevar a cabo nuestro trabajo, contamos con la participación de estudiantes de primer curso de universidad. El nivel de consumo se determino mediante el cálculo de la concentración más alta de alcohol en sangre (BAC) estimada en un único episodio de consumo. La muestra final contó con 161 sujetos, 76 CIA (40 varones y 36 mujeres) y 85 No CIA (38 varones y 47 mujeres) que fueron convocados a una evaluación neuropsicológica. El objetivo general de nuestro trabajo lo hemos concretado en cinco objetivos específicos que enumeramos a continuación junto con los resultados obtenidos en cada uno de ellos...
Resumo:
Una doctrina fundamental de la biología, la medicina, la fisiología o la farmacología es la relativa constancia del medio biológico interno (Homeostasis). Las variables homeostáticas no se mantienen a un nivel constante, sino dentro de un cierto intervalo de valores repetidos a intervalos regulares (Ritmos Biológicos); cuando dicho ciclo se cumple en un periodo de 24 h se denomina Ritmo Circadiano. Los sincronizadores que definen este ritmo son, entre otros, la alternancia luz-oscuridad o la rutina de sueño (descanso-actividad). La Cronobiología estudia los ritmos biológicos y sus mecanismos de cronometraje, determinando la influencia que los mismos pueden ejercer en los seres vivos. La Cronofarmacología, a su vez, estudia los efectos de los fármacos en función del ritmo circadiano (bien por alteraciones en su cinética: cronofarmacocinética; o en su dinamia: cronofarmacodinamia), determinando el período decisivo de su administración, para conseguir un aumento de su eficacia y/o disminución de sus efectos adversos. Estas alteraciones son, particularmente, importantes en aquellos grupos farmacológicos más críticos como los anestésicos, ya que existen diferencias en la capacidad anestesia dependientes de la hora del día en que se administran estos fármacos. El etomidato es un agente anestésico no barbitúrico de acción rápida, recomendado para la inducción anestésica en animales que presentan patologías que comprometen su estabilidad hemodinámica, ya que no provoca alteraciones severas en el sistema cardiovascular o en la presión intracraneal. Actúa facilitando la transmisión mediada por GABA, al interactuar con una zona alostérica del complejo receptor GABA – ionóforo Cl-...
Resumo:
Introducción: La autopercepción del bienestar dimensional se relaciona con características de cuidadoras. Objetivo: Establecer asociación de autopercepción en dimensiones de bienestar y características de cuidadores. Método: Estudio descriptivo, analítico y correlacional. Muestra 300 cuidadores. Matamoros Tamaulipas, México. Cuestionarios: Datos Sociodemográficos, Índice Barthel, Calidad Vida: dimensiones física, psicológica, social; y espiritual, éste con alpha de Cronbach 0.69. Pruebas chi-cuadrada y coeficiente correlación de Pearson. Resultados: Características mayoría mujeres, 42 años, casadas, hija, alfabetizadas, labores hogar, baja escolaridad, sin trabajo o ingresos limitados. Autopercepción con significancia en bienestar general, alfabetización y parentesco; dimensiones física, edad y género; psicológica, escolaridad; social, parentesco y espiritual alfabetización, situación laboral, ocupación y estado civil. Discusión: Características vulneran a cuidadoras a efectos adversos del cuidado y determinan mayor percepción de carga que altera su bienestar dimensional.
Resumo:
El reciente crecimiento masivo de medios on-line y el incremento de los contenidos generados por los usuarios (por ejemplo, weblogs, Twitter, Facebook) plantea retos en el acceso e interpretación de datos multilingües de manera eficiente, rápida y asequible. El objetivo del proyecto TredMiner es desarrollar métodos innovadores, portables, de código abierto y que funcionen en tiempo real para generación de resúmenes y minería cross-lingüe de medios sociales a gran escala. Los resultados se están validando en tres casos de uso: soporte a la decisión en el dominio financiero (con analistas, empresarios, reguladores y economistas), monitorización y análisis político (con periodistas, economistas y políticos) y monitorización de medios sociales sobre salud con el fin de detectar información sobre efectos adversos a medicamentos.
Resumo:
Antecedentes/Objetivos: Los sesgos de género en los ensayos clínicos (EC) se demostraron ya en los 90. Objetivo: analizar el cumplimiento del Informe Público Europeo de Evaluación (EPAR) de anticonceptivos y fármacos para la disfunción eréctil (FDE) realizado por la Agencia Europea de Medicamentos (EMA) respecto a sus recomendaciones de elaboración. Métodos: Análisis del contenido sobre eficacia, seguridad, farmacocinética (FC) y farmacodinámica (FD) del EPAR de 3 anticonceptivos y 3 FDE, y de sus fichas técnicas. Fuente de información: Base de datos de EMA. Descriptores: “erectile dysfunction” y “contraception”. Criterios exclusión: fármacos no autorizados, genéricos, que presenten el mismo informe. Resultados: Los EPAR de FDE no aportan datos del nº de EC de seguridad de Viagra, ni de las fases de 3 de los 11 EC de Levitra. Faltan datos sobre fases de 2 de los 6 EC de eficacia de Viagra. Ni datos de absorción de Cialis y Levitra sobre biodisponibilidad absoluta y relativa (salvo en 2º EPAR de Levitra). No datos de interacción alimentaria de Cialis. El EPAR del anticonceptivo Zoely no aporta información de las fases de 4 de los 8 EC sobre seguridad. Eficacia bien descrita, excepto Zoely (no refleja datos de EC dosis-respuesta, respecto a evidencia preliminar de eficacia, y de plan y dosis recomendada). En FD: Faltan datos de Zoely y EllaOne sobre concentración plasmática y efecto, comparación placebo o medicamento de referencia, EC para tipos concretos de efectos adversos, e interacciones con medicamentos. En Zoely no coincide la dosis estudiada con la autorizada. No datos de las fases de los EC de FC de EVRA y EllaOne, ni de 1/6 EC de Zoely. Hay datos de interacciones alimentarias en todos los anticonceptivos, pero no de absorción, respecto biodisponibilidad absoluta ni relativa. La información de eliminación es reflejada, excepto en el aclaramiento y vida media de Zoely. El nº de EC de las interacciones con otros fármacos fue < en los anticonceptivos respeto a los FDE. Las reacciones adversas (RAM) en los EPAR son más frecuentes en anticonceptivos (Evra: 80%, EllaOne: 79%, Zoely: 75%) que en FDE (Viagra: 65%, Cialis: 66,7%, Levitra: 64,3%). Hay RAM en los EPAR que no aparecen en su ficha técnica (EVRA: 4, EllaOne: 10, Zoely: 3, 2º EPAR Cialis: 6, 2º EPAR Levitra: 1). Conclusiones: La EMA no sigue sus propias guías de elaboración del EPAR al recomendar la aprobación de la comercialización de FDE y anticonceptivos a la Comisión Europea con falta de datos relevantes sobre seguridad, FC y FD. Las diferencias observadas en los EPAR entre ambos tipos de fármacos, sugieren sesgos de género en la información sobre seguridad y FC.
Resumo:
Objetivo: Conocer los resultados en términos de ganancia funcional de la aplicación de un sistema de registro electrónico basado en el índice de Barthel y la prevención de efectos adversos como método de prescripción y ejecución de cuidados estandarizados, utilizado por estudiantes de enfermería bajo la tutela de enfermeras clínicas acreditadas durante las prácticas clínicas tuteladas en la Universitat Jaume I. Material y métodos: Estudio descriptivo, prospectivo, longitudinal, multicéntrico. Se incluyen los registros electrónicos con estancia entre 5 y 9 días relacionados con las 6 camas que los estudiantes tienen asignadas en las unidades de medicina interna, cirugía y traumatología de 5 hospitales públicos y privados de la provincia de Castellón. Se estudian variables sociodemográficas y clínicas, riesgo de efectos adversos al ingreso, evolución de la capacidad funcional y ganancia funcional al alta. Se analiza la dependencia de las variables con la ganancia funcional y las diferencias entre grupos (p<0,05). Resultados: Con una muestra de 141 registros, la edad media es de 70,96 (s=15,64), sin diferencias significativas según sexos (p<0,05). El 68% (n=71) son procesos médicos con estancia media de 6,62 días (s=1,34) y complejidad media de 4,2 (s=2,6). La muestra presenta riesgo moderado-elevado de úlceras por presión (30%), caídas (68%) y desnutrición (52%). Los planes de cuidados estandarizados supone una ganancia funcional media de 7,06 puntos (s=20,09), sin diferencias significativas entre grupos (p<0,05). Discusión: La formación del estudiantado con metodología que implica toma de decisiones en la planificación de cuidados puede aportar mejoras en la calidad asistencial.
Resumo:
Las grandes emisiones de CO2 procedentes de la combustión de combustibles fósiles están provocando un calentamiento global en nuestro planeta. Estos problemas medioambientales están obligando a los diferentes gobiernos a buscar soluciones que permitan reducir esas emisiones y mitigar sus efectos adversos. Una de las soluciones más prometedoras consiste en la captura selectiva de CO2 en efluentes industriales mediante el uso de materiales adsorbentes porosos (zeolitas, carbón activado y materiales híbridos MOFs) que combinen una elevada capacidad de adsorción y una adecuada selectividad a CO2 frente al resto de gases del proceso industrial, además de una adecuada regeneración.
Resumo:
Introducción: La Comunidad Valenciana inició en octubre del 2008 el programa de vacunación contra el virus del papiloma humano (VPH) en niñas de 14 años. El objetivo de este estudio es evaluar los conocimientos sobre la infección por VPH y su vacuna en madres de adolescentes e identificar los factores asociados a la predisposición de vacunar a sus hijas. Material y métodos: Estudio observacional transversal mediante cuestionario dirigido a madres de alumnas nacidas en 1995 matriculadas en centros de secundaria de la provincia de Valencia durante 2010-2011. Muestra aleatoria estratificada por conglomerados (n = 1.279). Análisis estadístico: porcentajes, intervalos de confianza, OR, contrastes chi al cuadrado y regresión logística multivariante. Resultados: Ochocientos treinta y tres cuestionarios completados (65,1%). El 76,6% de las madres habían vacunado a sus hijas contra el VPH. El 93,8% conocía la vacuna, sobre todo a través de la televisión (71,5%). El 78,5% recibió consejo favorable de un profesional sanitario, lo que mejoró la vacunación de sus hijas (OR: 2,4). Los conocimientos globales sobre la infección por VPH y la vacuna fueron bajos. La confianza de las madres en las vacunas como método preventivo mejora la vacunación contra VPH (OR: 3,8). El miedo a los efectos adversos (45,6%) fue el primer motivo de rechazo. Conclusiones: No parece que los medios de comunicación influyan en la decisión de vacunar. Sería conveniente minimizar la percepción de riesgo ante esta vacuna. El consejo del profesional sanitario actúa a favor de la vacunación si este interviene activamente en sentido positivo. Existe una brecha entre nivel de conocimientos y toma de decisión para vacunar.
Resumo:
Los estudios epidemiológicos realizados hasta la fecha en neonatos hospitalizados son escasos. En España en las unidades neonatales las cifras de prevalencia se mueven entre un 50% en unidades de cuidados intensivos (UCIN) y un 12,5% en unidades de hospitalización. Desde todas las organizaciones de salud, nacionales (GNEAUPP) e internacionales (EPUAP, EWMA, NPUAP) relacionadas con las heridas, se promociona y potencia la seguridad del paciente mediante la prevención de los efectos adversos hospitalarios. Para conseguirlo es necesario dotar a los profesionales sanitarios de herramientas validadas y adaptadas a la edad neonatal que permitan valorar el riesgo de la población hospitalizada. De esta forma los profesionales sanitarios podrán gestionar de forma eficiente los recursos preventivos y trazar planes de cuidados centrados en el neonato. En la actualidad, en España no existe ninguna escala validada específicamente para neonatos. Por tanto, el objetivo principal de nuestro equipo de investigación fue adaptar transculturalmente al contexto español la escala NSRAS original y evaluar la validez y la fiabilidad de la versión en español. En esta ponencia se presentarán los resultados preliminares de la tesis. Método. El estudio se subdividió en tres fases. En la primera fase se realizó la adaptación transcultural de la escala NSRAS original mediante el método de traducción con retrotraducción. Posteriormente entre un grupo de expertos se calculó la validez de contenido mediante el IVC. La versión de la escala adaptada fue evaluada mediante dos fases de estudio multicéntrico observacional analítico en las unidades neonatales de 10 hospitales públicos del Sistema Nacional de Salud. Se evaluó la fiabilidad interobservadores e intraobservadores, la validez de constructo en la segunda fase y en una tercera fase se evaluó la capacidad predictiva y el punto de corte de la versión en español de la escala NSRAS. Resultados. En la primera fase la validez de contenido evaluada obtuvo un IVC de 0,926 [IC95%0,777-0,978]. En la segunda fase, la muestra evaluada fue de 336 neonatos. La consistencia interna mostró un Alfa de Cronbach de 0,794. Y la fiabilidad intraobservadores fue de 0,932 y la fiabilidad interobservadores fue de 0,969. En la tercera fase la muestra evaluada fue de 268 neonatos. El análisis multivariante de la relación entre los factores de riesgo, las medidas preventivas y la presencia de UPP mostró que 3 variables eran significativas: la puntuación NSRAS, la duración del ingreso y el uso de VMNI. Siendo de esta forma la puntuación NSRAS (debido a que activa las medidas preventivas) un factor protector frente a UPP. Es decir, a mayor puntuación de NSRAS, menor riesgo de UPP. La valoración clinicométrica de la puntuación 17 mostró una sensibilidad del 91,18%, una especificidad de 76,5%, un VPN de 36,05% y un VPP de 98,35%. El área bajo la curva ROC fue de 0,8384 en la puntuación 17. Conclusiones. La versión en español de la escala NSRAS es una herramienta válida y fiable para medir el riesgo de UPP en la población neonatal hospitalizada en el contexto español. Los neonatos hospitalizados con una puntuación igual o menor a 17 están en riesgo desarrollar UPP.
Resumo:
El objetivo principal de este trabajo es analizar la contribución de los principales instrumentos de política ambiental existentes en México para la protección del patrimonio cultural, así como los efectos adversos del cambio climático en el patrimonio arqueológico. El análisis se enfoca fundamentalmente en dos instrumentos de política ambiental: la declaratoria de áreas naturales protegidas y el ordenamiento territorial. La premisa principal, derivada de lo observado en el caso mexicano, es que aun cuando la legislación en materia de monumentos y zonas arqueológicos no presenta un vínculo expreso con la del medio ambiente, por tratarse de ordenamientos independientes, dicha protección se produce de forma indirecta. La presente investigación destaca la importancia de dicha protección, aunque ésta sea en algunos casos, circunstancial. Del estudio detallado de las disposiciones legales en materia de medio ambiente y de patrimonio arqueológico y los instrumentos de política ambiental, a los que la legislación les otorga el carácter de utilidad pública, se deduce fundamentalmente la importancia de estos últimos por la protección que otorgan. La utilidad de dichos instrumentos en la presente investigación se hace evidente cuando, por su ubicación, una zona arqueológica queda dentro de un área natural sujeta a protección o de un ordenamiento territorial urbano o ecológico. Esta condición se vuelve determinante para que su protección se garantice, en el primer caso, a partir del polígono que se crea por disposición legal a través de una declaratoria mediante la cual se limitan, condicionan o prohíben actividades humanas para asegurar la restauración, protección y preservación de las condiciones naturales. Se crea un entorno de protección para zonas con características naturales relevantes en donde los ambientes han permanecido sin alteraciones por la actividad de los seres humanos y dentro de ellas quedan resguardados zonas o vestigios de interés arqueológico. En el segundo caso, en el área que abarca el ordenamiento, se ordenan o inducen el uso del suelo y las actividades productivas con lo que se consigue lograr la protección del medio ambiente, la preservación y el aprovechamiento sustentable de los recursos naturales, así como la protección de los vestigios arqueológicos que quedan dentro del ordenamiento. En lo relativo a la legislación sobre patrimonio cultural, en forma independiente, también se expiden declaratorias a través de decretos que protegen una zona, por los vestigios que ahí se encuentran y en las que eventualmente se refieren al entorno natural circundante que en ocasiones, son coincidentes con las declaratorias ambientales. En este trabajo se analizan también los efectos adversos del cambio climático en el patrimonio arqueológico y las medidas de prevención, remediación y mitigación que se instrumentan para su salvaguardia. Las conclusiones principales muestran que en el caso de nuestro país, como se verá adelante, la legislación sobre patrimonio arqueológico no guarda relación directa con la legislación en materia ambiental, a pesar de lo profusa que es esta última, tanto a nivel federal como local. Asimismo, aun cuando no existe un instrumento, estrategia de planeación específica o un ordenamiento legal único y autónomo para la protección de los monumentos y zonas arqueológicos, desde el punto de vista ambiental, las áreas naturales protegidas y el ordenamiento territorial, como estrategias de política ambiental, coadyuvan a ese propósito.
Resumo:
La esofagitis eosinofílica (EEo) es una enfermedad esofágica alérgica de creciente incidencia. Afecta a niños y adultos jóvenes, principalmente hombres (razón 3:1), encontrándose enfermedades atópicas subyacentes (asma y/o rinoconjuntivitis estacional, dermatitis atópica, alergia alimentaria) en el 80%-90% de los casos. Los primeros criterios diagnósticos para la EEo, publicados en el año 2007, se basaban en la conjunción de tres criterios mayores: datos clínicos (síntomas de disfunción esofágica), datos histológicos (infiltración epitelial esofágica por eosinófilos > 15 eos/cga) y ausencia de respuesta a inhibidores de la bomba de protones (IBP) o pHmetría esofágica normal. Sin embargo, la gran mayoría de los pacientes con síntomas de disfunción esofágica e inflamación esofágica eosinofílica eran diagnosticados de EEo sin confirmación de la respuesta a IBP o realización de pHmetría. Por tanto, existía un riesgo evidente de infraestimación de la respuesta a IBP en estos pacientes. Este incumplimiento de las premisas diagnósticas de consenso no sólo impedía cuantificar el porcentaje de pacientes que eran respondedores a IBP, sino que hacía que pacientes potencialmente respondedores a IBP recibieran otros tratamientos específicos para la EEo (corticoides tópicos, dietas de eliminación), los cuales, comparados con los IBP, provocan mayor cantidad de efectos adversos o podían limitar notablemente la calidad de vida de los pacientes. Inmediatamente después de la publicación de las primeras recomendaciones diagnósticas en el año 2007, se comunicaron pequeñas series retrospectivas de pacientes pediátricos con eosinofilia esofágica sintomática que alcanzaron remisión completa con IBP, tanto con pHmetría normal como patológica. Por tanto, estas series iniciales comenzaron cuestionar el papel diagnóstico de la pHmetría y su capacidad para predecir la respuesta a IBP...
Resumo:
A atuação eficaz dos trabalhadores da saúde no atendimento imediato da parada cardiorrespiratória possibilita o efetivo processo de implementação da hipotermia terapêutica, reduzindo possíveis danos cerebrais e proporcionando um melhor prognóstico para o paciente. O presente estudo objetivou conhecer o processo de implementação da hipotermia terapêutica pós-parada cardiorrespiratória em hospitais do extremo sul do Brasil. Tratou-se de uma pesquisa de abordagem qualitativa, do tipo descritiva. O cenário do estudo foram duas Unidades de Terapia Intensiva de dois hospitais onde a hipotermia terapêutica pós-parada cardiorrespiratória é realizada. Os sujeitos do estudo foram médicos, enfermeiros e técnicos de enfermagem atuantes nas referidas unidades. A coleta de dados foi composta por dois momentos. Primeiramente, foi desenvolvida uma pesquisa retrospectiva nos prontuários dos pacientes e, posteriormente, foram aplicadas entrevistas semiestruturadas por meio de roteiro de entrevista com os profissionais citados, as quais foram gravadas com aparelho digital. A coleta de dados ocorreu durante o mês de outubro de 2014. Para interpretação dos dados, foi utilizada a análise textual discursiva, construindo-se três categorias. Na primeira categoria, “processo de implementação da hipotermia terapêutica”, constatou-se que o hospital com uma implementação sistematizada e organizada utiliza um protocolo escrito e, em relação às fases de aplicação da hipotermia terapêutica, ambas as instituições utilizam os métodos tradicionais de indução, manutenção e reaquecimento. A segunda categoria, “facilidades e dificuldades vivenciadas pela equipe de saúde durante a aplicação da hipotermia terapêutica”, identifica a estrutura física, harmonia da equipe, equipamentos para a monitorização constante das condições hemodinâmicas dos pacientes e a otimização do tempo de trabalho como facilitadores. No que tange às dificuldades, constatou-se a aquisição de materiais, como o gelo e o BIS; disponibilidade de um único termômetro esofágico; inexistência de EPI’s; conhecimento insuficiente e inaptidão técnica; ausência de educação permanente e dimensionamento inadequado dos profissionais de enfermagem. Na terceira categoria, “efeitos adversos e complicações encontradas pela equipe de saúde durante a aplicação da hipotermia terapêutica e cuidados de enfermagem realizados”, verificou-se, como efeitos adversos, a ocorrência de tremores, bradicardia e hipotensão e de complicações como hipotermia excessiva e queimaduras de pele. Os cuidados de enfermagem direcionam-se aos cuidados com a pele e extremidades, uso do gelo, sedação, higiene, conforto e preparo de material para monitorização. Concluiu-se que a hipotermia terapêutica é possível de ser aplicada, na realidade das instituições pesquisadas, de maneira segura, eficaz e de baixo custo.