13 resultados para PARTO VAGINAL DESPUES DE CESAREA-ESTADISTICA Y DATOS NUMERICOS
em Universidad de Alicante
Resumo:
Objetivo. Determinar los efectos del uso de la pelota de parto (PdP) durante el trabajo de parto en relación al tiempo de dilatación y expulsivo, la integridad perineal, la percepción de la intensidad del dolor y la seguridad. Método. Ensayo clínico controlado y aleatorizado. Participantes: nulíparas de 18 a 35 años, bajo riesgo, a término. Intervención: realización de movimientos sentadas sobre PdP durante el parto. Variables resultado: tiempo de dilatación y expulsivo; integridad perineal; percepción del dolor, recuerdo del dolor en el puerperio y pre-post intervención; tipo de parto; motivo de distocia; Apgar; ingreso en UCI neonatal. Análisis: comparación de grupos: t-Student para variables contínuas y Ji-cuadrado para categóricas. Significación p≤0,05. Resultados. 58 participantes (34 grupo experimental y 24 grupo control). El tiempo de dilatación y expulsivo, y la integridad perineal fue similar entre grupos. A los 4 cm el grupo experimental refirió menos dolor que el grupo control; 6,9 puntos vs 8,2 (p = 0,039). La diferencia en la percepción del dolor recordada en el puerperio inmediato fue de 1,48 puntos mayor en el grupo control (p = 0,003). La medición del dolor en el grupo experimental antes del uso de la PdP fue de 7,45 puntos y tras la intervención de 6,07 puntos (p < 0,001). En las variables relacionadas con la seguridad no hubo diferencias entre los grupos. Conclusión. El uso de pelotas de parto disminuye la percepción del dolor de parto y es segura.
Resumo:
OBJETIVO: Analizar la opinión que los usuarios tienen sobre alimentos genéticamente modificados y su información en el etiquetado. MÉTODOS: Realizada revisión sistemática de la literatura científica sobre los alimentos transgénicos y el etiquetado a partir de la consulta de las bases de datos bibliográficas: Medline (vía PubMed), EMBASE, ISIWeb of Knowledge, Cochrane Library Plus, FSTA, LILACS, CINAHL y AGRICOLA. Los descriptores seleccionados fueron: «organisms, genetically modified» y «food labeling». La búsqueda se realizó desde la primera fecha disponible hasta junio de 2012, seleccionando los artículos pertinentes escritos en inglés, portugués y castellano. RESULTADOS: Se seleccionaron 40 artículos. En todos ellos, se debía haber realizado una intervención poblacional enfocada al conocimiento de los consumidores sobre los alimentos genéticamente modificados y su necesidad, o no, de incluir información en el etiquetado. El consumidor expresa su preferencia por el producto no-genéticamente modificado, y apunta que está dispuesto a pagar algo más por él, pero, en definitiva compra el artículo que está a mejor precio en un mercado que acoge las nuevas tecnologías. En 18 artículos la población se mostraba favorable a su etiquetado obligatorio y seis al etiquetado voluntario; siete trabajos demostraban el poco conocimiento de la población sobre los transgénicos y, en tres, la población subestimó la cantidad que consumía. En todo caso, se observó la influencia del precio del producto genéticamente modificado. CONCLUSIONES: La etiqueta debe ser homogénea y aclarar el grado de tolerancia en humanos de alimentos genéticamente modificados en comparación con los no modificados. Asimismo, debe dejar claro su composición, o no, de alimento genéticamente modificado y la forma de producción de estos artículos de consumo. La etiqueta también debe ir acompañada de un sello de certificación de una agencia del estado y datos para contacto. El consumidor expresa su preferencia por el producto no-genéticamente modificado pero señaló que acaba comprando el artículo que está a mejor precio en un mercado que acoge las nuevas tecnologías.
Resumo:
La investigación que nos planteamos busca dar cuenta de las transformaciones acaecidas a la práctica profesional de enfermería en el INE “Juan H Jara” en la década de los 70, los distintos cambios del Estado nacional y sus relaciones con la corporación médica. Cotejando el discurso enfermero con documentos y datos de la época, intentamos interpretar cuál fue la dinámica y estructura de los procesos de reproducción social, que tuvieron como resultante la gradual “invisibilización” de las prácticas de enfermería. La enfermería fue considerada como un “recurso” por los médicos, no muy distinto de otros insumos, que podían construir y deshacer según las necesidades coyunturales, esta instrumentalización se relaciona con las dificultades para el desarrollo de la capacidad de análisis crítico y la resistencia colectiva a los procesos alienantes dentro de la profesión.
Resumo:
El Programa de Acción Tutorial de Económicas, conocido coloquialmente como PATEC, cumple su novena edición en el presente curso académico 2013-2014. Desde sus inicios el PATEC se ha adaptado a las distintas titulaciones adscritas al Centro gracias a su gran flexibilidad, aspecto fundamental si tenemos en cuenta el tamaño y la heterogeneidad de nuestro Centro y las diferentes características de nuestros estudiantes. El objetivo de esta comunicación es dar a conocer el PATEC, sus objetivos, características y datos más relevantes, así como analizar su evolución lo que nos permitirá obtener una radiografía completa del Programa. Teniendo en cuenta las dificultades encontradas en la implementación del Programa en sus distintas ediciones trataremos de abordar planteamientos alternativos entre los que se encuentra la creación de una Red de Tutores que persigue optimizar la labor tutorial y facilitar el trabajo de futuros tutores. Asimismo, se expondrán diferentes experiencias innovadoras llevadas a cabo con el objetivo de incrementar la participación del alumnado.
Resumo:
Objetivos: A principios de 2010 el Hospital Universitario Virgen de la Arrixaca puso en marcha, en el servicio de partos, el protocolo de donación voluntaria de sangre de cordón umbilical (SCU). Desde la reflexión y la autoevaluación, planteamos un análisis de nuestra situación actual a través del estudio de la influencia de las variables obstétrico-fetales en la calidad de las muestras. Métodos: Con este fin hemos planteado un trabajo de tipo observacional, descriptivo, retrospectivo y de corte transversal desde mayo de 2010 a noviembre de 2011, con el objetivo de aumentar la calidad de las unidades de SCU y optar por una gestión eficiente que haga sostenible el proyecto. Resultados: Se obtuvieron 123 donaciones potenciales de sangre de cordón y del análisis multivariable de las mismas obtuvimos una correlación positiva significativa entre el número de leucocitos, las semanas de gestación y el parto vaginal. El peso inicial de la unidad se incrementó significativamente a mayor peso del recién nacido y paridad de la donante. Conclusiones: Como conclusiones del estudio nos planteamos esbozar posibles factores predictivos que permitan seleccionar las muestras de mayor calidad y sean complemento de los actuales estándares elaborados por el Banco Público de Málaga. En este sentido nuestros resultados sugieren que en los partos con más semanas de gestación, paridad de la gestante y peso del recién nacido, así como en los partos vaginales, encontramos mayores posibilidades de obtener muestras de alta calidad.
Resumo:
Este trabajo de investigación analiza los efectos que produce individualmente un proceso de coaching entre estudiantes de nuevo ingreso y de último curso del grado en Sociología de la Universidad de Alicante que, de forma voluntaria, han adquirido el compromiso de desarrollar sus valores personales y competencias académicas a través de esta herramienta. Partiendo de la metodología y datos obtenidos en la Trait Meta-Mood Scale (TMMS)-24, del grupo de investigación de Salovey y Mayer, se evalúa la Inteligencia Emocional. Este test se administra al inicio y al final del proceso a los estudiantes del curso 2014/2015. Además, se evalúan los datos resultantes de la aplicación de un modelo de cuestionario inicial, utilizado en coaching ejecutivo para el entorno empresarial y adaptado al contexto universitario, para conocer la situación de partida de cada estudiante. Se analizan comparativamente los resultados académicos obtenidos por los participantes en el proyecto durante los cursos 2013/2014 y 2014/2015.
Resumo:
El objetivo es describir las limitaciones y las recomendaciones metodológicas identificadas por los autores de artículos originales sobre inmigración y salud en España. Se realizó una revisión bibliográfica de artículos originales publicados en español e inglés entre 1998 y 2012, combinando descriptores de inmigración y salud. Se incluyeron 311 artículos; de ellos, 176 (56,6%) mencionaban limitaciones y 15 (4,8%) emitían recomendaciones. Entre las limitaciones más mencionadas destacan el reducido tamaño de las muestras, problemas de validez interna y representatividad de la muestra con infrarrepresentación o sobrerrepresentación de determinados grupos, problemas de validez de la información recogida y datos faltantes relacionados sobre todo con los instrumentos de medición, y ausencia de variables clave de ajuste o estratificación. En función de los resultados obtenidos, se proponen una serie de recomendaciones para minimizar las limitaciones habituales y avanzar en la calidad de los trabajos científicos sobre inmigración y salud en nuestro ámbito.
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
Resumo:
El presente libro “Ecosistema de Datos Abiertos de la Universidad de Alicante” pretende ser de utilidad para aquellas Universidades interesadas en desarrollar políticas de transparencia y datos abiertos. En él se detalla la experiencia de la Universidad de Alicante en la implantación de su “Ecosistema de Datos Abiertos”, tanto los aspectos normativos, procedimentales como los tecnológicos. Desde el libro se enlaza el software “Plataforma Tecnológica de Datos Abiertos Univesitarios (OpenData4U)” que busca facilitar un entorno de colaboración tecnológica entre Universidades. Se crea de esta forma, el embrión de una red de ecosistemas tecnológicos de datos abiertos universitarios.
Resumo:
La memoria es una facultad humana de inequívoca importancia en el manejo de los conocimientos. Los localiza temporal y espacialmente y deviene un factor esencial de nuestro reconocimiento, tanto individual como socialmente: “memoria personal versus memoria colectiva”. a) Una de las opciones metodológicas de la Geografía, la llamada “histórica”, en la que este trabajo se inserta, procesa las distintas fuentes y datos del pasado para alcanzar explicaciones del presente. b) De entre ellas, la fotografía ha alcanzado un valor relevante especialmente en el análisis de procesos de cambios paisajísticos veloces, los que es posible disponer de “series fotográficas” capaces de fijar el proceso en imágenes, trasuntos fieles de la realidad. c) Desde esas perspectivas metodológicas, se presente el estudio de un caso: la orilla del Guadalquivir por Coria del Río (Sevilla).La memoria es una facultad humana de inequívoca importancia en el manejo de los conocimientos. Los localiza temporal y espacialmente y deviene un factor esencial de nuestro reconocimiento, tanto individual como socialmente: “memoria personal versus memoria colectiva”. a) Una de las opciones metodológicas de la Geografía, la llamada “histórica”, en la que este trabajo se inserta, procesa las distintas fuentes y datos del pasado para alcanzar explicaciones del presente. b) De entre ellas, la fotografía ha alcanzado un valor relevante especialmente en el análisis de procesos de cambios paisajísticos veloces, los que es posible disponer de “series fotográficas” capaces de fijar el proceso en imágenes, trasuntos fieles de la realidad. c) Desde esas perspectivas metodológicas, se presente el estudio de un caso: la orilla del Guadalquivir por Coria del Río (Sevilla).
Resumo:
Esta proyecto pretender crear una red docente especializada en las tecnologías de la información geográfica (TIG), con especial interés en la geomática, y en la captura, análisis y publicación de datos geográficos. Estos sistemas deben de ser sostenibles, por ello se hace especial énfasis en el uso de programas, servicios y datos libres, con el fin de poder impartir una docencia que aporte un perfil diferente al alumno, que no solo será analista, sino también productor y difusor de contenidos geográficos en forma de cartografía. Todo ello repercute en el alumnado facilitando el conocimiento de la información originados por esta red docente, elevando las posibilidades de inserción laboral, y dinamizando el emprendimiento. Por ello, las acciones colaborativas y metodológicas se centran en la creación y personalización de un aula experimental de cartografía y Sistemas de Información Geográfica (SIG) donde poder practicar los servicios y procesos que la sociedad está demandando, y que los productores están sirviendo. Estos esfuerzos requieren el concurso de un servidor de servicios y datos que también forma parte de este proyecto.
Resumo:
En la presente tesis doctoral se realiza una aproximación a las estrategias de fijación de precios de las aerolíneas de bajo coste europeas a partir del estudio de su entorno (demanda, proveedores, rivales, productos sustitutos, etcétera). Para ello se emplea el marco del modelo de las cinco fuerzas descrito por Michael Porter. Para su análisis, se utiliza un método combinado de Análisis Factorial (ACP) y datos de panel.
Resumo:
En este trabajo se propone y desarrolla una topología en k-hipercubos que resuelve los principales inconvenientes asociados a la topología en hipercubo convencional. Los resultados obtenidos son muy prometedores, con aplicaciones tanto en el campo de la voz sobre IP, como en muchos otros campos que precisen de un intercambio de información muchos a muchos. Sobre la topología propuesta se define el protocolo Darkcube, que es una propuesta de protocolo totalmente distribuido basado en el concepto de darknet, posibilitando la realización de conversaciones muchos a muchos incluyendo audio, vídeo, texto y datos de geoposicionamiento, entre otros. También se propone un método de codificación de coordenadas de geoposicionamiento que resulta especialmente eficiente en el aprovechamiento del ancho de banda sobrante en las comunicaciones muchos a muchos que proporciona Darkcube. Durante el desarrollo de este trabajo, se ha implementado el simulador DarkcubeEmu; herramienta que posibilita la obtención de resultados relevantes en términos de la calidad de la comunicación. Finalmente, utilizando como base el protocolo Darkcube, se propone un protocolo de seguridad que traslada un esquema de infraestructura de clave pública a un protocolo totalmente distribuido, como es Darkcube; garantizando, de esta forma, la confidencialidad en las comunicaciones y la legitimidad de la identidad asociada a cada uno de sus miembros.