998 resultados para Algoritmo de tratamiento


Relevância:

70.00% 70.00%

Publicador:

Resumo:

%WL: porcentaje de pérdida de peso; %FL: porcentaje de pérdida de grasa. Objetivo: describir la metodología en la gestión del tratamiento dietético cuali-cuantitativo en el sobrepeso y la obesidad. Método: se llevaron a cabo 4.625 consultas con 616 pacientes mayores de 25 años con sobrepeso y obesidad, en el sur-este de España, durante los años 2006-12. Se utilizó una dieta equilibrada, hipocalórica, cuali-cuantitativa con alimentos de la zona. Se describió la metodología del tratamiento dietético en la pérdida y el mantenimiento. Se trató qué unidades de medida son adecuadas para la expresión del éxito en la pérdida; una nueva visión del asesoramiento individualizado y el tratamiento multidisciplinar. Resultados: el 80% de los pacientes obtienen un %FL ≥ 5% (22,6 ± 11,8 - 11,2 ± 7,4), y asistieron a la consulta más de mes y medio. Conclusión: se presenta un esquema de la metodología del tratamiento dietético; se han recomendado las unidades de medidas a utilizar en consulta y en la publicación de ensayos clínicos, creando un precedente con grado de evidencia de cómo determinar la pérdida exitosa; se recomienda medir los perímetros de cadera y cintura, e incorporar el estudio de la imagen corporal; se presenta una nueva visión del asesoramiento individualizado y una atención multidisciplinar avanzada, independiente de la edad, el estado de gestación y las minusvalías físicas. La postura del sanitario debe de ser considerada como el gestor encargado de determinar qué técnicas podrían ser más efectivas en dicha pérdida.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se desarrolla un tipo estructural de datos válido para procesos de algoritmos, son los denominados árboles. Se trata la importancia de las estructuras de árbol en la representación de ciertos tipos de datos, y cómo numerosos problemas matemáticos utilizan esta estructura de árbol en los algoritmos correspondientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El estudio persigue comprender los procesos algorítmicos implicados en el aprendizaje de resta, tanto a nivel conceptual como a nivel procedimental, así como la incidencia de la metodología utilizada por el maestro en la producción de los mismos. Para el desarrollo de la investigación, se establecen tres momentos, un primer momento en el que se aborda el marco curricular del área de matemáticas, un segundo momento de estudio del marco teórico general en el que se sustenta el núcleo temático de la investigación, constituido por el análisis de los errores que comenten los niños en el algoritmo de la resta, y un último momento, en el que se desarrolla la investigación. La investigación se desarrolla a través de un marco científico-empírico. Empírico, porque pretende obtener conocimiento por vía de la experiencia y, científico, porque se pretende utilizar métodos rigurosos, en función de la naturaleza del problema, las características de las variables y los objetivos de la investigación. Todo ello desde un paradigma cognitivo. A su vez, la investigación se divide en cuatro estudios, un primer estudio de corte descriptivo-correlacional, y desde el punto de vista de la estrategia de recogida de información, de corte transversal, posteriormente se desarrolla un estudio piloto de corte naturalista, donde la obtención de datos se lleva a cabo a través de grabaciones de los niños y por lo tanto, el análisis de los datos tiene un carácter cualitativo. Un tercer estudio relacionado con los errores dominantes en tercer curso de educación primaria, por último un cuarto estudio, sobre la intervención de los desarrollos hipermedia en el aprendizaje de la resta. El estudio se compone de variables dependientes e independientes, dentro de las dependientes se encuentran: tiempo en solucionar la prueba, nivel de adquisición de conceptos previos para la ejecución correcta del algoritmo de la resta, nivel de aciertos en total de restas, categoría de error en cada resta, total de errores en el total de restas, por otro lado, entre las independientes, se destacan: colegios, cursos, ciclos y sexo. En relación con la muestra utilizada para el estudio, está compuesta por 354 alumnos de segundo a sexto de educación primaria, de cuatro centros de la provincia de Salamanca. Los instrumentos utilizados para la investigación quedan definidos en la siguiente manera: recogida de información a través de cuestionarios a alumnos y profesores, recogida de verbalizaciones de los niños en el momento de la aplicación de la prueba (mediante grabación en video), análisis de datos a través del SPSS, conversión de archivo audio a ordenador mediante Sound Scriber, transcripción de las verbalizaciones con el programa Nudis. Durante el aprendizaje del algoritmo de la resta en nuestras aulas se producen errores (bugs), en el estudio se evidencian en torno al 55,5 por ciento de errores de manera estable. Estos errores disminuyen con el proceso de enseñanza, pero algunos son sistemáticos y se pueden observar en niños más experimentados. Para mejorar esta situación, es necesario que las distintas fases de adquisición del algoritmo de la resta, se aborden a nivel pedagógico, a través de procesos didácticos ordenados y sistematizados, teniendo en cuenta el momento evolutivo propio para su correcta adquisición.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La falta de información es un escenario más que habitual en la utilización de conjuntos de datos. En las aplicaciones del mundo real existen múltiples causas – errores o fallos de los sensores cuando se trabaja con equipos automáticos, desconocimiento o falta de interés por parte de los responsables de introducir la información, negativas por parte de los informantes a responder a preguntas sobre temas comprometidos en encuestas … – que pueden originarlo. Como consecuencia de ello, el procesamiento de los valores ausentes es, en la práctica, uno de los trabajos que más tiempo consumen en los proyectos de minería de datos y aprendizaje automático [109] y se estima que alrededor del 60% de los esfuerzos se destinan al mismo [23]. Aunque la ausencia puede producirse en cualquier tipo de datos, sean éstos numéricos o categóricos, nos vamos a centrar en los últimos a causa de algunas peculiaridades que merece la pena estudiar. Y hablaremos indistintamente de ausencia de información, valores ausentes, falta de respuesta, datos parcialmente observados o falta de datos, pues en cualquiera de estas formas aparece citado el problema. Las técnicas para afrontarlo se vienen desarrollando ya desde hace tiempo [135], [6] y existen numerosas referencias en la literatura, sobre todo acerca de la falta de respuesta 6 en encuestas [32], [79]. Sin embargo, en el ámbito del aprendizaje automático es en los últimos años cuando se ha convertido en un área de investigación dinámica, con frecuentes aportaciones [94]. Los dos puntos de vista, el estadístico y el del aprendizaje automático, consideran el problema en formas bien diferentes y tienen distintos objetivos, lo que origina, a su vez, discrepancias en la clasificación de las técnicas y en los criterios para su evaluación. Por un lado, el enfoque estadístico paramétrico tradicional considera el conjunto de datos como una muestra, resultado de la extracción aleatoria de una población con una distribución probabilística. Bajo este supuesto, el objetivo es obtener algunos de los parámetros que caracterizan esa distribución – la media, la moda, la correlación entre variables, etc. – calculándose los correspondientes estimadores como funciones de los datos de la muestra. La ausencia de datos es, aquí, un problema de estimación que se afronta desde diferentes perspectivas. Por su parte, en el ámbito de los procedimientos de aprendizaje automático existen múltiples técnicas que pueden utilizarse para tratar los datos ausentes mediante su sustitución por valores obtenidos a partir de los datos observados: redes neuronales, árboles de decisión, etc. Cuando los datos que faltan son categóricos, se pueden utilizar técnicas específicas como los procedimientos de clasificación: las categorías a asignar coinciden con los distintos valores posibles del atributo que tiene falta de información. Pueden utilizarse métodos supervisados y no supervisados. En el primer caso, cuando existe más de un atributo con falta de datos, el aprendizaje se realiza sucesiva y separadamente para cada uno, lo que significa que la tarea ha de repetirse tantas veces como atributos con valores ausentes hay en el conjunto de datos [72]. El inicio de los trabajos de esta tesis ha estado principalmente motivado en la necesidad de mejorar los resultados obtenidos al tratar de resolver problemas de falta de 7 información de variables categóricas en sondeos de opinión utilizando los procedimientos que la literatura considera como el estado del arte en ese ámbito. Se ha encontrado, así, que muchos de los métodos que se proponen tienen hipótesis de funcionamiento que están muy lejos de las situaciones reales que se encuentran en la práctica y, además, las soluciones existentes han avanzado frecuentemente en direcciones no adecuadas, sin replantear los fundamentos básicos. Esto ha conducido de una forma natural a probar métodos propios de otro ámbito como es el aprendizaje automático, para lo que ha sido necesario, en ocasiones, proponer modificaciones de algunos procedimientos ya existentes de modo que pudieran aceptar como entradas el tipo de datos que estos sondeos de opinión manejan. Como resultado, y en el caso concreto de un tipo específico de redes neuronales, se ha diseñado una nueva arquitectura y un nuevo algoritmo de funcionamiento que se presentan aquí como aportación más novedosa de este estudio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis está enmarcada en el estudio de diferentes procedimientos numéricos para resolver la dinámica de un sistema multicuerpo sometido a restricciones e impacto, que puede estar compuesto por sólidos rígidos y deformables conectados entre sí por diversos tipos de uniones. Dentro de los métodos numéricos analizados se presta un especial interés a los métodos consistentes, los cuales tienen por objetivo que la energía calculada en cada paso de tiempo, para un sistema mecánico, tenga una evolución coherente con el comportamiento teórico de la energía. En otras palabras, un método consistente mantiene constante la energía total en un problema conservativo, y en presencia de fuerzas disipativas proporciona un decremento positivo de la energía total. En esta línea se desarrolla un algoritmo numérico consistente con la energía total para resolver las ecuaciones de la dinámica de un sistema multicuerpo. Como parte de este algoritmo se formulan energéticamente consistentes las restricciones y el contacto empleando multiplicadores de Lagrange, penalización y Lagrange aumentado. Se propone también un método para el contacto con sólidos rígidos representados mediante superficies implícitas, basado en una restricción regularizada que se adaptada adecuadamente para el cumplimiento exacto de la restricción de contacto y para ser consistente con la conservación de la energía total. En este contexto se estudian dos enfoques: uno para el contacto elástico puro (sin deformación) formulado con penalización y Lagrange aumentado; y otro basado en un modelo constitutivo para el contacto con penetración. En el segundo enfoque se usa un potencial de penalización que, en ausencia de componentes disipativas, restaura la energía almacenada en el contacto y disipa energía de forma consistente con el modelo continuo cuando las componentes de amortiguamiento y fricción son consideradas. This thesis focuses on the study of several numerical procedures used to solve the dynamics of a multibody system subjected to constraints and impact. The system may be composed by rigid and deformable bodies connected by different types of joints. Within this framework, special attention is paid to consistent methods, which preserve the theoretical behavior of the energy at each time step. In other words, a consistent method keeps the total energy constant in a conservative problem, and provides a positive decrease in the total energy when dissipative forces are present. A numerical algorithm has been developed for solving the dynamical equations of multibody systems, which is energetically consistent. Energetic consistency in contacts and constraints is formulated using Lagrange multipliers, penalty and augmented Lagrange methods. A contact methodology is proposed for rigid bodies with a boundary represented by implicit surfaces. The method is based on a suitable regularized constraint formulation, adapted both to fulfill exactly the contact constraint, and to be consistent with the conservation of the total energy. In this context two different approaches are studied: the first applied to pure elastic contact (without deformation), formulated with penalty and augmented Lagrange; and a second one based on a constitutive model for contact with penetration. In this second approach, a penalty potential is used in the constitutive model, that restores the energy stored in the contact when no dissipative effects are present. On the other hand, the energy is dissipated consistently with the continuous model when friction and damping are considered.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La planta química Pridneprovsky fue una de las empresas mas grandes de procesamiento de uranio de la antigua URSS. Los depósitos de Zapadnoe contienen la mayoría de estos residuos. Proponemos un marco teórico basado en el Análisis de Decisión Multicriterio y la Lógica Borrosa para analizar diferentes alternativas de remediación de los residuos Zapadnoe, en las que objetivos económicos, sociales y ambientales potencialmente conflictivos entre sí son simultáneamente tenidos en cuenta. Se ha construido una jerarquía de objetivos, que incluye todos los aspectos relevantes del problema, en la que se observa claramente los objetivos y atributos que son necesarios conseguir si se quieren alcanzar objetivos de un nivel superior. Se han usado conjuntos borrosos en lugar de valores exactos, para evaluar las alternativas de remediación en los diferentes criterios y cuanticar las preferencias del decisor. Para ello, se propone que las alternativas de remediación deben ser evaluadas por medio de una función de utilidad de multiatributo aditiva. Este método producirá una utilidad esperada para cada alternativa representada por medio de un numero borroso trapezoidal. Finalmente se usará un algoritmo de ordenamiento de números borrosos para elegir la mejor alternativa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El cáncer de próstata es el tipo de cáncer con mayor prevalencia entre los hombres del mundo occidental y, pese a tener una alta tasa de supervivencia relativa, es la segunda mayor causa de muerte por cáncer en este sector de la población. El tratamiento de elección frente al cáncer de próstata es, en la mayoría de los casos, la radioterapia externa. Las técnicas más modernas de radioterapia externa, como la radioterapia modulada en intensidad, permiten incrementar la dosis en el tumor mientras se reduce la dosis en el tejido sano. Sin embargo, la localización del volumen objetivo varía con el día de tratamiento, y se requieren movimientos muy pequeños de los órganos para sacar partes del volumen objetivo fuera de la región terapéutica, o para introducir tejidos sanos críticos dentro. Para evitar esto se han desarrollado técnicas más avanzadas, como la radioterapia guiada por imagen, que se define por un manejo más preciso de los movimientos internos mediante una adaptación de la planificación del tratamiento basada en la información anatómica obtenida de imágenes de tomografía computarizada (TC) previas a la sesión terapéutica. Además, la radioterapia adaptativa añade la información dosimétrica de las fracciones previas a la información anatómica. Uno de los fundamentos de la radioterapia adaptativa es el registro deformable de imágenes, de gran utilidad a la hora de modelar los desplazamientos y deformaciones de los órganos internos. Sin embargo, su utilización conlleva nuevos retos científico-tecnológicos en el procesamiento de imágenes, principalmente asociados a la variabilidad de los órganos, tanto en localización como en apariencia. El objetivo de esta tesis doctoral es mejorar los procesos clínicos de delineación automática de contornos y de cálculo de dosis acumulada para la planificación y monitorización de tratamientos con radioterapia adaptativa, a partir de nuevos métodos de procesamiento de imágenes de TC (1) en presencia de contrastes variables, y (2) cambios de apariencia del recto. Además, se pretende (3) proveer de herramientas para la evaluación de la calidad de los contornos obtenidos en el caso del gross tumor volumen (GTV). Las principales contribuciones de esta tesis doctoral son las siguientes: _ 1. La adaptación, implementación y evaluación de un algoritmo de registro basado en el flujo óptico de la fase de la imagen como herramienta para el cálculo de transformaciones no-rígidas en presencia de cambios de intensidad, y su aplicabilidad a tratamientos de radioterapia adaptativa en cáncer de próstata con uso de agentes de contraste radiológico. Los resultados demuestran que el algoritmo seleccionado presenta mejores resultados cualitativos en presencia de contraste radiológico en la vejiga, y no distorsiona la imagen forzando deformaciones poco realistas. 2. La definición, desarrollo y validación de un nuevo método de enmascaramiento de los contenidos del recto (MER), y la evaluación de su influencia en el procedimiento de radioterapia adaptativa en cáncer de próstata. Las segmentaciones obtenidas mediante el MER para la creación de máscaras homogéneas en las imágenes de sesión permiten mejorar sensiblemente los resultados de los algoritmos de registro en la región rectal. Así, el uso de la metodología propuesta incrementa el índice de volumen solapado entre los contornos manuales y automáticos del recto hasta un valor del 89%, cercano a los resultados obtenidos usando máscaras manuales para el registro de las dos imágenes. De esta manera se pueden corregir tanto el cálculo de los nuevos contornos como el cálculo de la dosis acumulada. 3. La definición de una metodología de evaluación de la calidad de los contornos del GTV, que permite la representación de la distribución espacial del error, adaptándola a volúmenes no-convexos como el formado por la próstata y las vesículas seminales. Dicha metodología de evaluación, basada en un nuevo algoritmo de reconstrucción tridimensional y una nueva métrica de cuantificación, presenta resultados precisos con una gran resolución espacial en un tiempo despreciable frente al tiempo de registro. Esta nueva metodología puede ser una herramienta útil para la comparación de distintos algoritmos de registro deformable orientados a la radioterapia adaptativa en cáncer de próstata. En conclusión, el trabajo realizado en esta tesis doctoral corrobora las hipótesis de investigación postuladas, y pretende servir como cimiento de futuros avances en el procesamiento de imagen médica en los tratamientos de radioterapia adaptativa en cáncer de próstata. Asimismo, se siguen abriendo nuevas líneas de aplicación futura de métodos de procesamiento de imágenes médicas con el fin de mejorar los procesos de radioterapia adaptativa en presencia de cambios de apariencia de los órganos, e incrementar la seguridad del paciente. I.2 Inglés Prostate cancer is the most prevalent cancer amongst men in the Western world and, despite having a relatively high survival rate, is the second leading cause of cancer death in this sector of the population. The treatment of choice against prostate cancer is, in most cases, external beam radiation therapy. The most modern techniques of external radiotherapy, as intensity modulated radiotherapy, allow increasing the dose to the tumor whilst reducing the dose to healthy tissue. However, the location of the target volume varies with the day of treatment, and very small movements of the organs are required to pull out parts of the target volume outside the therapeutic region, or to introduce critical healthy tissues inside. Advanced techniques, such as the image-guided radiotherapy (IGRT), have been developed to avoid this. IGRT is defined by more precise handling of internal movements by adapting treatment planning based on the anatomical information obtained from computed tomography (CT) images prior to the therapy session. Moreover, the adaptive radiotherapy adds dosimetric information of previous fractions to the anatomical information. One of the fundamentals of adaptive radiotherapy is deformable image registration, very useful when modeling the displacements and deformations of the internal organs. However, its use brings new scientific and technological challenges in image processing, mainly associated to the variability of the organs, both in location and appearance. The aim of this thesis is to improve clinical processes of automatic contour delineation and cumulative dose calculation for planning and monitoring of adaptive radiotherapy treatments, based on new methods of CT image processing (1) in the presence of varying contrasts, and (2) rectum appearance changes. It also aims (3) to provide tools for assessing the quality of contours obtained in the case of gross tumor volume (GTV). The main contributions of this PhD thesis are as follows: 1. The adaptation, implementation and evaluation of a registration algorithm based on the optical flow of the image phase as a tool for the calculation of non-rigid transformations in the presence of intensity changes, and its applicability to adaptive radiotherapy treatment in prostate cancer with use of radiological contrast agents. The results demonstrate that the selected algorithm shows better qualitative results in the presence of radiological contrast agents in the urinary bladder, and does not distort the image forcing unrealistic deformations. 2. The definition, development and validation of a new method for masking the contents of the rectum (MER, Spanish acronym), and assessing their impact on the process of adaptive radiotherapy in prostate cancer. The segmentations obtained by the MER for the creation of homogenous masks in the session CT images can improve significantly the results of registration algorithms in the rectal region. Thus, the use of the proposed methodology increases the volume overlap index between manual and automatic contours of the rectum to a value of 89%, close to the results obtained using manual masks for both images. In this way, both the calculation of new contours and the calculation of the accumulated dose can be corrected. 3. The definition of a methodology for assessing the quality of the contours of the GTV, which allows the representation of the spatial distribution of the error, adapting it to non-convex volumes such as that formed by the prostate and seminal vesicles. Said evaluation methodology, based on a new three-dimensional reconstruction algorithm and a new quantification metric, presents accurate results with high spatial resolution in a time negligible compared to the registration time. This new approach may be a useful tool to compare different deformable registration algorithms oriented to adaptive radiotherapy in prostate cancer In conclusion, this PhD thesis corroborates the postulated research hypotheses, and is intended to serve as a foundation for future advances in medical image processing in adaptive radiotherapy treatment in prostate cancer. In addition, it opens new future applications for medical image processing methods aimed at improving the adaptive radiotherapy processes in the presence of organ’s appearance changes, and increase the patient safety.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quizás el Código Morse, inventado en 1838 para su uso en la telegrafía, es uno de los primeros ejemplos de la utilización práctica de la compresión de datos [1], donde las letras más comunes del alfabeto son codificadas con códigos más cortos que las demás. A partir de 1940 y tras el desarrollo de la teoría de la información y la creación de los primeros ordenadores, la compresión de la información ha sido un reto constante y fundamental entre los campos de trabajo de investigadores de todo tipo. Cuanto mayor es nuestra comprensión sobre el significado de la información, mayor es nuestro éxito comprimiéndola. En el caso de la información multimedia, su naturaleza permite la compresión con pérdidas, alcanzando así cotas de compresión imposibles para los algoritmos sin pérdidas. Estos “recientes” algoritmos con pérdidas han estado mayoritariamente basados en transformación de la información al dominio de la frecuencia y en la eliminación de parte de la información en dicho dominio. Transformar al dominio de la frecuencia posee ventajas pero también involucra unos costes computacionales inevitables. Esta tesis presenta un nuevo algoritmo de compresión multimedia llamado “LHE” (Logarithmical Hopping Encoding) que no requiere transformación al dominio de la frecuencia, sino que trabaja en el dominio del espacio. Esto lo convierte en un algoritmo lineal de reducida complejidad computacional. Los resultados del algoritmo son prometedores, superando al estándar JPEG en calidad y velocidad. Para ello el algoritmo utiliza como base la respuesta fisiológica del ojo humano ante el estímulo luminoso. El ojo, al igual que el resto de los sentidos, responde al logaritmo de la señal de acuerdo a la ley de Weber. El algoritmo se compone de varias etapas. Una de ellas es la medición de la “Relevancia Perceptual”, una nueva métrica que nos va a permitir medir la relevancia que tiene la información en la mente del sujeto y en base a la misma, degradar en mayor o menor medida su contenido, a través de lo que he llamado “sub-muestreado elástico”. La etapa de sub-muestreado elástico constituye una nueva técnica sin precedentes en el tratamiento digital de imágenes. Permite tomar más o menos muestras en diferentes áreas de una imagen en función de su relevancia perceptual. En esta tesis se dan los primeros pasos para la elaboración de lo que puede llegar a ser un nuevo formato estándar de compresión multimedia (imagen, video y audio) libre de patentes y de alto rendimiento tanto en velocidad como en calidad. ABSTRACT The Morse code, invented in 1838 for use in telegraphy, is one of the first examples of the practical use of data compression [1], where the most common letters of the alphabet are coded shorter than the rest of codes. From 1940 and after the development of the theory of information and the creation of the first computers, compression of information has been a constant and fundamental challenge among any type of researchers. The greater our understanding of the meaning of information, the greater our success at compressing. In the case of multimedia information, its nature allows lossy compression, reaching impossible compression rates compared with lossless algorithms. These "recent" lossy algorithms have been mainly based on information transformation to frequency domain and elimination of some of the information in that domain. Transforming the frequency domain has advantages but also involves inevitable computational costs. This thesis introduces a new multimedia compression algorithm called "LHE" (logarithmical Hopping Encoding) that does not require transformation to frequency domain, but works in the space domain. This feature makes LHE a linear algorithm of reduced computational complexity. The results of the algorithm are promising, outperforming the JPEG standard in quality and speed. The basis of the algorithm is the physiological response of the human eye to the light stimulus. The eye, like other senses, responds to the logarithm of the signal according with Weber law. The algorithm consists of several stages. One is the measurement of "perceptual relevance," a new metric that will allow us to measure the relevance of information in the subject's mind and based on it; degrade accordingly their contents, through what I have called "elastic downsampling". Elastic downsampling stage is an unprecedented new technique in digital image processing. It lets take more or less samples in different areas of an image based on their perceptual relevance. This thesis introduces the first steps for the development of what may become a new standard multimedia compression format (image, video and audio) free of patents and high performance in both speed and quality.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES]El objetivo fue comprobar en la bibliografía el tratamiento de la osteoporosis de carácter preventivo y relacionado con la fisioterapia. Se realizó una búsqueda bibliográfica de publicaciones de los últimos 5 años y se seleccionaron 44 estudios para este trabajo. Se concluye que en diferentes tipos de situación como la postmenopáusica se desconoce su circuito de atención primaria. A través de este ejemplo se puede sustraer información relacionada con esta necesidad en la patología mencionada para las poblaciones con riesgo de fractura y poblaciones sin riesgo de fractura (aparentemente). En las guías de práctica clínica nacionales revisadas, no se explicita el algoritmo de actuación que ha de seguirse ante un paciente con fractura osteoporótica en el ámbito hospitalario.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La degeneración de las articulaciones axiales y periféricas va unida al propio envejecimiento del ser humano. Es responsable del dolor e impotencia funcional, y su fisiopatología es compleja y no del todo conocida. El denominador común en la artrosis es la degeneración del cartílago articular, junto a otras alteraciones secundarias. Su abordaje y manejo del dolor supone todo un reto para las Unidades del Dolor. Históricamente, el tratamiento intervencionista se llevó a cabo mediante infiltraciones a ciegas de diferentes sustancias que alivian el dolor. En la actualidad, la fluoroscopia, y más recientemente los ultrasonidos, son los métodos de elección para la guía de nuestros procedimientos. En cuanto a los fármacos utilizados más comúnmente en nuestras técnicas invasivas articulares destacaremos el ácido hialurónico (AH) y el plasma rico en plaquetas (PRP). Los esteroides siguen siendo, en prácticamente todos los estudios, el estándar de oro o fármaco de referencia y sobre los que se comparan el resto de familias de fármacos. Una exploración exhaustiva del paciente, y un algoritmo de decisiones en cuanto a la decisión de realización de estas técnicas, se antoja necesario, adecuándose a cada lugar de trabajo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se aborda la aplicación de SPEA2, un método para optimización multiobjetivo, al cálculo de un esquema de dosificación para el tratamiento quimioterapéutico de una masa tumoral; entiéndase por esquema de dosificación la especificación del o de los agentes cito-tóxicos, sus dosis y tiempos en que deben administrarse. El problema de optimización aquí resuelto es uno multiobjetivo, pues el esquema de dosificación a calcularse debe minimizar no solo el tamaño del tumor, sino también la toxicidad remanente al término del tratamiento, su costo, etc. El SPEA2 es un algoritmo genético que aplica el criterio de Pareto; por lo tanto, lo que calcula es una aproximación a la frontera de Pareto, soluciones de entre las cuales el usuario puede escoger la “mejor”. En el proceso de esta investigación se construyó SoT-Q, una herramienta de software que consiste de dos módulos principales: un optimizador para calcular los esquemas de dosificación óptimos, y un simulador para aplicar dichos esquemas a un paciente (simulado) con masa tumoral; el funcionamiento del simulador se basa en un modelo fármaco-dinámico que representa el tumor. El programa SoT-Q podría en el futuro -una vez extensamente probado y depurado- asistir a médicos oncólogos en la toma de decisiones respecto a tratamientos quimioterapéuticos; o podría servir también como ayuda pedagógica en el entrenamiento de nuevos profesionales de la salud. Los resultados obtenidos fueron muy buenos; en todos los casos de prueba utilizados se logró reducir de manera significativa tanto el tamaño del tumor como la toxicidad remanente al término del tratamiento; en algunos casos la reducción fue de tres órdenes de magnitud.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente estudio se realizó con el objetivo de evaluar la utilización de la Resina de Neem (Azadirachta indica)como desparasitante externo en el tratamiento del tórsalo (Dermatobia hominis)en bovinos del Municipio de Muy Muy, Departamento de Matagalpa. El Municipio de Muy Muy esta ubicado en las Coordenadas 12º45'48" de latitud Norte con 85° 37' 36" de Longitud Oeste, con una altura sobre el nivel del mar de 337.6 metros, una precipitación promedio entre 1400-1800 mm, con una temperatura promedio 24°C., La topografía del terreno en que se ubica el Municipio de MUY MUY, presenta las siguientes características: 32.1% Terrenos Plano, 41.0% Terrenos Ondulados y 26.9% Terrenos Quebrados. Y los tipos de suelos son arcillosos y rocosos. En el trabajo experimental se utilizó un diseño completamen te al azar (D.C.A) el que estuvo compuesto por un lote de 18 animales divididos en 3 grupos, cada grupo formado por 6 animales seleccionadas al azar y sometidas a tratamientos distintos Tratamiento I: Ivermectina al 1%, Tratamiento II: Resina del Neem al 5%. Tratamiento III: Resina de Neem al 10%. Para evaluar la efectividad de los distintos tratamientos se hizo conteos periódicos de tórsalos cada siete días, cuantificando la cantidad de nódulos por animal y región anatómica a los 7, 14, 21, 28, 35, 42, 49, 56 días. La efectividad de todos los tratamientos se observó a partir de los 21 días después de la aplicación. Los tratamientos II y I tuvieron las mejores respuestas en el control, del tórsalo, con un porcentaje de efectividad del 91.6%, y 72.7% respectivamente y con un 62.5% para el tratamiento III. El área anatómica mas afectada fue la del miembro anterior derecho seguido del lateral derecho. Según el análisis del costo de la dosis, se puede decir que la resina de Neem es un desparasita nte económico para los productores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente estudio se realizo con el objetivo de utilización de la manteca de Armadillo (Dasypus novemcinctus)en el tratamiento de la mastitis bovina en el Municipio de PAIWAS Departamento de Región Autónoma del Atlántico Norte (RAAN).Se localiza entre las coordenadas 12° 47' de latitud norte y 85° 07', con una altura sobre el nivel del mar de 145.88 msnm. una temperaturas entre 24°C y 25°C. La precipitación anual oscila entre los 2,400 mm y los 3,000 mm con una buena distribución durante todo el año. Se utilizo un diseño completamente al azar (D.C.A) el que esta compuesto por un lote de 30 animales divididas en 3 grupos, cada grupo formado por 10 animales seleccionadas al azar y sometidas a tratamientos distintos Tratamiento I: Mastivet complex, Tratamiento II: Manteca de cusuco al 100%. Tratamiento III: Manteca de cusuco al 50%. Existe una prevalencia de la mastitis en el hato del 65% de esto el 39% de mastitis subclínica y el 22.4% de mastitis clíni ca, y 74 vacas resultaron negativas a la prueba representando el 35.2%. EL cuarto mas afectado fue el Anterior derecho (AD) del cual el 48.5 % reaccionaron positivos. Los tratamiento III y II a base de manteca de del armadillo (Dasypus novemcinctus) tuvieron mejores resultados clínico-terapéuticos en la curación de la mastitis bovina, donde a los 42 días se alcanzó la mayor efectividad; ya que el tratamiento I la efectividad fue del 60 % ,en el II del 70 % y en el III del 80%. Los tratamientos alternativos (III y II) a base de manteca de del armadillo (Dasypus novemcinctus)mostraron factibilidad económica y terapéuticas.