862 resultados para Simulación en medicina del dolor
Resumo:
Incluye Bibliografía
Resumo:
Introduction: The current Brazilian legislation states that health services must be performed by the Specialized Service of Safety Engineering and Labor Medicine (SESMT). Objective: To analyze the dental and medical reasons for absenteeism, checking the interference of factors such as age, gender and position of the worker, and most of the reasons that led the employee to miss work. Material and methods: The research appears as a descriptive study with a quantitative approach. The dental and medical certificates and statements of attendance were analyzed, duly approved, lodged in a acrylic industry in the city of Araçatuba-SP, from January to July 2011. Results: Of the total number of certificates (n = 1841), only 103 (5.6%) were for dental reasons. Predominance of the age group of 20-29 years, males and with non-administrative function. The reasons most dental and medical certificates stated that led the workers to miss working days were "inclusive and impacted teeth" and "diarrhea and gastroenteritis of presumed infectious origin", respectively. As to factors related to absenteeism, there was a severity index of 2.83, 1.33 frequency and average duration of absences of 2.12. Conclusions: It is concluded that dental reasons had little weight on total absences due to illness that caused the temporary leave of the worker for a shorter period. The age and function variables influence the occurrence of work absenteeism.
Resumo:
Programa de doctorado: Tecnologías de las telecomunicaciones.
Resumo:
Programa de doctorado: Avances en Traumatología, Medicina del Deporte y Cuidados de Heridas
Resumo:
Máster Universitario en Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería (SIANI)
Resumo:
Fil: Oviedo, Alejandro. Hospital Luis Lagomaggiore (Mendoza, Argentina). Servicio de Cirugía General.
Resumo:
Objetivo: La presente ponencia tiene como objetivo determinar cuánta producción publicada en revistas pueden autoarchivar los investigadores de una institución. Se aplica una metodología basada en el análisis del modelo de acceso a las revistas donde publican los investigadores que permite estimar la disponibilidad en abierto real y potencial de su producción. Se presenta el caso de la producción científica en medicina del período 2006-2010 de dos universidades argentinas. Métodos: La producción de la Universidad Nacional de La Plata (UNLP) y de la Universidad Nacional de Rosario (UNR) fueron recogidas de la base de datos Scopus y los modelos de acceso a las revistas, determinados a partir de la consulta a Romeo-Sherpa, Dulcinea, DOAJ, SciELO, RedALyC, PubMed Central,. Resultados: En el caso de la UNLP el 28 de los artículos es de acceso abierto real al ser publicados en revistas OA y el 59 es potencialmente accesible por estar publicados en revistas de suscripción que permiten el autoarchivo. En la UNR el 42 de los artículos es de acceso abierto real y el 55 potencialmente accesible en repositorios de acceso abierto. Conclusiones: En ambos casos es alta la viabilidad de proveer acceso abierto a la producción científica en medicina a través del auto-archivo en repositorios. Se identifican las principales revistas y editoriales y se determinan los tipos de versión del artículo que se puede auto-archivar ofreciendo información que facilita el trabajo de los gestores de los repositorios
Resumo:
Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión
Resumo:
Objetivo: La presente ponencia tiene como objetivo determinar cuánta producción publicada en revistas pueden autoarchivar los investigadores de una institución. Se aplica una metodología basada en el análisis del modelo de acceso a las revistas donde publican los investigadores que permite estimar la disponibilidad en abierto real y potencial de su producción. Se presenta el caso de la producción científica en medicina del período 2006-2010 de dos universidades argentinas. Métodos: La producción de la Universidad Nacional de La Plata (UNLP) y de la Universidad Nacional de Rosario (UNR) fueron recogidas de la base de datos Scopus y los modelos de acceso a las revistas, determinados a partir de la consulta a Romeo-Sherpa, Dulcinea, DOAJ, SciELO, RedALyC, PubMed Central,. Resultados: En el caso de la UNLP el 28 de los artículos es de acceso abierto real al ser publicados en revistas OA y el 59 es potencialmente accesible por estar publicados en revistas de suscripción que permiten el autoarchivo. En la UNR el 42 de los artículos es de acceso abierto real y el 55 potencialmente accesible en repositorios de acceso abierto. Conclusiones: En ambos casos es alta la viabilidad de proveer acceso abierto a la producción científica en medicina a través del auto-archivo en repositorios. Se identifican las principales revistas y editoriales y se determinan los tipos de versión del artículo que se puede auto-archivar ofreciendo información que facilita el trabajo de los gestores de los repositorios
Resumo:
Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión
Resumo:
Objetivo: La presente ponencia tiene como objetivo determinar cuánta producción publicada en revistas pueden autoarchivar los investigadores de una institución. Se aplica una metodología basada en el análisis del modelo de acceso a las revistas donde publican los investigadores que permite estimar la disponibilidad en abierto real y potencial de su producción. Se presenta el caso de la producción científica en medicina del período 2006-2010 de dos universidades argentinas. Métodos: La producción de la Universidad Nacional de La Plata (UNLP) y de la Universidad Nacional de Rosario (UNR) fueron recogidas de la base de datos Scopus y los modelos de acceso a las revistas, determinados a partir de la consulta a Romeo-Sherpa, Dulcinea, DOAJ, SciELO, RedALyC, PubMed Central,. Resultados: En el caso de la UNLP el 28 de los artículos es de acceso abierto real al ser publicados en revistas OA y el 59 es potencialmente accesible por estar publicados en revistas de suscripción que permiten el autoarchivo. En la UNR el 42 de los artículos es de acceso abierto real y el 55 potencialmente accesible en repositorios de acceso abierto. Conclusiones: En ambos casos es alta la viabilidad de proveer acceso abierto a la producción científica en medicina a través del auto-archivo en repositorios. Se identifican las principales revistas y editoriales y se determinan los tipos de versión del artículo que se puede auto-archivar ofreciendo información que facilita el trabajo de los gestores de los repositorios
Resumo:
Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión
Resumo:
El objetivo de esta Tesis ha sido la consecución de simulaciones en tiempo real de vehículos industriales modelizados como sistemas multicuerpo complejos formados por sólidos rígidos. Para el desarrollo de un programa de simulación deben considerarse cuatro aspectos fundamentales: la modelización del sistema multicuerpo (tipos de coordenadas, pares ideales o impuestos mediante fuerzas), la formulación a utilizar para plantear las ecuaciones diferenciales del movimiento (coordenadas dependientes o independientes, métodos globales o topológicos, forma de imponer las ecuaciones de restricción), el método de integración numérica para resolver estas ecuaciones en el tiempo (integradores explícitos o implícitos) y finalmente los detalles de la implementación realizada (lenguaje de programación, librerías matemáticas, técnicas de paralelización). Estas cuatro etapas están interrelacionadas entre sí y todas han formado parte de este trabajo. Desde la generación de modelos de una furgoneta y de camión con semirremolque, el uso de tres formulaciones dinámicas diferentes, la integración de las ecuaciones diferenciales del movimiento mediante métodos explícitos e implícitos, hasta el uso de funciones BLAS, de técnicas de matrices sparse y la introducción de paralelización para utilizar los distintos núcleos del procesador. El trabajo presentado en esta Tesis ha sido organizado en 8 capítulos, dedicándose el primero de ellos a la Introducción. En el Capítulo 2 se presentan dos formulaciones semirrecursivas diferentes, de las cuales la primera está basada en una doble transformación de velocidades, obteniéndose las ecuaciones diferenciales del movimiento en función de las aceleraciones relativas independientes. La integración numérica de estas ecuaciones se ha realizado con el método de Runge-Kutta explícito de cuarto orden. La segunda formulación está basada en coordenadas relativas dependientes, imponiendo las restricciones por medio de penalizadores en posición y corrigiendo las velocidades y aceleraciones mediante métodos de proyección. En este segundo caso la integración de las ecuaciones del movimiento se ha llevado a cabo mediante el integrador implícito HHT (Hilber, Hughes and Taylor), perteneciente a la familia de integradores estructurales de Newmark. En el Capítulo 3 se introduce la tercera formulación utilizada en esta Tesis. En este caso las uniones entre los sólidos del sistema se ha realizado mediante uniones flexibles, lo que obliga a imponer los pares por medio de fuerzas. Este tipo de uniones impide trabajar con coordenadas relativas, por lo que la posición del sistema y el planteamiento de las ecuaciones del movimiento se ha realizado utilizando coordenadas Cartesianas y parámetros de Euler. En esta formulación global se introducen las restricciones mediante fuerzas (con un planteamiento similar al de los penalizadores) y la estabilización del proceso de integración numérica se realiza también mediante proyecciones de velocidades y aceleraciones. En el Capítulo 4 se presenta una revisión de las principales herramientas y estrategias utilizadas para aumentar la eficiencia de las implementaciones de los distintos algoritmos. En primer lugar se incluye una serie de consideraciones básicas para aumentar la eficiencia numérica de las implementaciones. A continuación se mencionan las principales características de los analizadores de códigos utilizados y también las librerías matemáticas utilizadas para resolver los problemas de álgebra lineal tanto con matrices densas como sparse. Por último se desarrolla con un cierto detalle el tema de la paralelización en los actuales procesadores de varios núcleos, describiendo para ello el patrón empleado y las características más importantes de las dos herramientas propuestas, OpenMP y las TBB de Intel. Hay que señalar que las características de los sistemas multicuerpo problemas de pequeño tamaño, frecuente uso de la recursividad, y repetición intensiva en el tiempo de los cálculos con fuerte dependencia de los resultados anteriores dificultan extraordinariamente el uso de técnicas de paralelización frente a otras áreas de la mecánica computacional, tales como por ejemplo el cálculo por elementos finitos. Basándose en los conceptos mencionados en el Capítulo 4, el Capítulo 5 está dividido en tres secciones, una para cada formulación propuesta en esta Tesis. En cada una de estas secciones se describen los detalles de cómo se han realizado las distintas implementaciones propuestas para cada algoritmo y qué herramientas se han utilizado para ello. En la primera sección se muestra el uso de librerías numéricas para matrices densas y sparse en la formulación topológica semirrecursiva basada en la doble transformación de velocidades. En la segunda se describe la utilización de paralelización mediante OpenMP y TBB en la formulación semirrecursiva con penalizadores y proyecciones. Por último, se describe el uso de técnicas de matrices sparse y paralelización en la formulación global con uniones flexibles y parámetros de Euler. El Capítulo 6 describe los resultados alcanzados mediante las formulaciones e implementaciones descritas previamente. Este capítulo comienza con una descripción de la modelización y topología de los dos vehículos estudiados. El primer modelo es un vehículo de dos ejes del tipo chasis-cabina o furgoneta, perteneciente a la gama de vehículos de carga medianos. El segundo es un vehículo de cinco ejes que responde al modelo de un camión o cabina con semirremolque, perteneciente a la categoría de vehículos industriales pesados. En este capítulo además se realiza un estudio comparativo entre las simulaciones de estos vehículos con cada una de las formulaciones utilizadas y se presentan de modo cuantitativo los efectos de las mejoras alcanzadas con las distintas estrategias propuestas en esta Tesis. Con objeto de extraer conclusiones más fácilmente y para evaluar de un modo más objetivo las mejoras introducidas en la Tesis, todos los resultados de este capítulo se han obtenido con el mismo computador, que era el top de la gama Intel Xeon en 2007, pero que hoy día está ya algo obsoleto. Por último los Capítulos 7 y 8 están dedicados a las conclusiones finales y las futuras líneas de investigación que pueden derivar del trabajo realizado en esta Tesis. Los objetivos de realizar simulaciones en tiempo real de vehículos industriales de gran complejidad han sido alcanzados con varias de las formulaciones e implementaciones desarrolladas. ABSTRACT The objective of this Dissertation has been the achievement of real time simulations of industrial vehicles modeled as complex multibody systems made up by rigid bodies. For the development of a simulation program, four main aspects must be considered: the modeling of the multibody system (types of coordinates, ideal joints or imposed by means of forces), the formulation to be used to set the differential equations of motion (dependent or independent coordinates, global or topological methods, ways to impose constraints equations), the method of numerical integration to solve these equations in time (explicit or implicit integrators) and the details of the implementation carried out (programming language, mathematical libraries, parallelization techniques). These four stages are interrelated and all of them are part of this work. They involve the generation of models for a van and a semitrailer truck, the use of three different dynamic formulations, the integration of differential equations of motion through explicit and implicit methods, the use of BLAS functions and sparse matrix techniques, and the introduction of parallelization to use the different processor cores. The work presented in this Dissertation has been structured in eight chapters, the first of them being the Introduction. In Chapter 2, two different semi-recursive formulations are shown, of which the first one is based on a double velocity transformation, thus getting the differential equations of motion as a function of the independent relative accelerations. The numerical integration of these equations has been made with the Runge-Kutta explicit method of fourth order. The second formulation is based on dependent relative coordinates, imposing the constraints by means of position penalty coefficients and correcting the velocities and accelerations by projection methods. In this second case, the integration of the motion equations has been carried out by means of the HHT implicit integrator (Hilber, Hughes and Taylor), which belongs to the Newmark structural integrators family. In Chapter 3, the third formulation used in this Dissertation is presented. In this case, the joints between the bodies of the system have been considered as flexible joints, with forces used to impose the joint conditions. This kind of union hinders to work with relative coordinates, so the position of the system bodies and the setting of the equations of motion have been carried out using Cartesian coordinates and Euler parameters. In this global formulation, constraints are introduced through forces (with a similar approach to the penalty coefficients) are presented. The stabilization of the numerical integration is carried out also by velocity and accelerations projections. In Chapter 4, a revision of the main computer tools and strategies used to increase the efficiency of the implementations of the algorithms is presented. First of all, some basic considerations to increase the numerical efficiency of the implementations are included. Then the main characteristics of the code’ analyzers used and also the mathematical libraries used to solve linear algebra problems (both with dense and sparse matrices) are mentioned. Finally, the topic of parallelization in current multicore processors is developed thoroughly. For that, the pattern used and the most important characteristics of the tools proposed, OpenMP and Intel TBB, are described. It needs to be highlighted that the characteristics of multibody systems small size problems, frequent recursion use and intensive repetition along the time of the calculation with high dependencies of the previous results complicate extraordinarily the use of parallelization techniques against other computational mechanics areas, as the finite elements computation. Based on the concepts mentioned in Chapter 4, Chapter 5 is divided into three sections, one for each formulation proposed in this Dissertation. In each one of these sections, the details of how these different proposed implementations have been made for each algorithm and which tools have been used are described. In the first section, it is shown the use of numerical libraries for dense and sparse matrices in the semirecursive topological formulation based in the double velocity transformation. In the second one, the use of parallelization by means OpenMP and TBB is depicted in the semi-recursive formulation with penalization and projections. Lastly, the use of sparse matrices and parallelization techniques is described in the global formulation with flexible joints and Euler parameters. Chapter 6 depicts the achieved results through the formulations and implementations previously described. This chapter starts with a description of the modeling and topology of the two vehicles studied. The first model is a two-axle chassis-cabin or van like vehicle, which belongs to the range of medium charge vehicles. The second one is a five-axle vehicle belonging to the truck or cabin semi-trailer model, belonging to the heavy industrial vehicles category. In this chapter, a comparative study is done between the simulations of these vehicles with each one of the formulations used and the improvements achieved are presented in a quantitative way with the different strategies proposed in this Dissertation. With the aim of deducing the conclusions more easily and to evaluate in a more objective way the improvements introduced in the Dissertation, all the results of this chapter have been obtained with the same computer, which was the top one among the Intel Xeon range in 2007, but which is rather obsolete today. Finally, Chapters 7 and 8 are dedicated to the final conclusions and the future research projects that can be derived from the work presented in this Dissertation. The objectives of doing real time simulations in high complex industrial vehicles have been achieved with the formulations and implementations developed.
Resumo:
Respuesta de la frecuencia cardiaca de anticipación y recuperación en función del nivel de entrenamiento aeróbico en deportistas
Resumo:
Este trabajo pretende proyectar los diferentes contagios de cólera en Haití. Cólera es una de las grandes epidemias más graves a nivel mundial capaz de provocar gran cantidad de mortalidad en una población que no esté preparada para enfrentarla, ya sea previniéndola o tratando la enfermedad. La amplia experiencia con el cólera ha demostrado que es imposible evitar su introducción en un país, pero si puede evitarse mediante medidas de control apropiadas.