103 resultados para Simulación (medicina)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La diabetes mellitus es un trastorno del metabolismo de los carbohidratos producido por la insuficiente o nula producción de insulina o la reducida sensibilidad a esta hormona. Es una enfermedad crónica con una mayor prevalencia en los países desarrollados debido principalmente a la obesidad, la vida sedentaria y disfunciones en el sistema endocrino relacionado con el páncreas. La diabetes Tipo 1 es una enfermedad autoinmune en la que son destruidas las células beta del páncreas, que producen la insulina, y es necesaria la administración de insulina exógena. Un enfermo de diabetes Tipo 1 debe seguir una terapia con insulina administrada por la vía subcutánea que debe estar adaptada a sus necesidades metabólicas y a sus hábitos de vida, esta terapia intenta imitar el perfil insulínico de un páncreas no patológico. La tecnología actual permite abordar el desarrollo del denominado “páncreas endocrino artificial”, que aportaría precisión, eficacia y seguridad para los pacientes, en cuanto a la normalización del control glucémico y reducción del riesgo de hipoglucemias. Permitiría que el paciente no estuviera tan pendiente de su enfermedad. El páncreas artificial consta de un sensor continuo de glucosa, una bomba de infusión de insulina y un algoritmo de control, que calcula la insulina a infusionar usando la glucosa como información principal. Este trabajo presenta un método de control en lazo semi-cerrado mediante un sistema borroso experto basado en reglas. La regulación borrosa se fundamenta en la ambigüedad del lenguaje del ser humano. Esta incertidumbre sirve para la formación de una serie de reglas que representan el pensamiento humano, pero a la vez es el sistema que controla un proceso, en este caso el sistema glucorregulatorio. Este proyecto está enfocado en el diseño de un controlador borroso que haciendo uso de variables como la glucosa, insulina y dieta, sea capaz de restaurar la función endocrina del páncreas de forma tecnológica. La validación del algoritmo se ha realizado principalmente mediante experimentos en simulación utilizando una población de pacientes sintéticos, evaluando los resultados con estadísticos de primer orden y algunos más específicos como el índice de riesgo de Kovatchev, para después comparar estos resultados con los obtenidos por otros métodos de control anteriores. Los resultados demuestran que el control borroso (FBPC) mejora el control glucémico con respecto a un sistema predictivo experto basado en reglas booleanas (pBRES). El FBPC consigue reducir siempre la glucosa máxima y aumentar la mínima respecto del pBRES pero es en terapias desajustadas, donde el FBPC es especialmente robusto, hace descender la glucosa máxima 8,64 mg/dl, el uso de insulina es 3,92 UI menor, aumenta la glucosa mínima 3,32 mg/dl y lleva al rango de glucosa 80 – 110 mg/dl 15,33 muestras más. Por lo tanto se puede concluir que el FBPC realiza un mejor control glucémico que el controlador pBRES haciéndole especialmente efectivo, robusto y seguro en condiciones de desajustes de terapia basal y con gran capacidad de mejora futura. SUMMARY The diabetes mellitus is a metabolic disorder caused by a poor or null insulin secretion or a reduced sensibility to insulin. Diabetes is a chronic disease with a higher prevalence in the industrialized countries, mainly due to obesity, the sedentary life and endocrine disfunctions connected with the pancreas. Type 1 diabetes is a self-immune disease where the beta cells of the pancreas, which are the responsible of secreting insulin, are damaged. Hence, it is necessary an exogenous delivery of insulin. The Type 1 diabetic patient has to follow a therapy with subcutaneous insulin administration which should be adjusted to his/her metabolic needs and life style. This therapy tries to mimic the insulin profile of a non-pathological pancreas. Current technology lets the development of the so-called endocrine artificial pancreas that would provide accuracy, efficiency and safety to patients, in regards to the glycemic control normalization and reduction of the risk of hypoglycemic. In addition, it would help the patient not to be so concerned about his disease. The artificial pancreas has a continuous glucose sensor, an insulin infusion pump and a control algorithm, that calculates the insulin infusion using the glucose as main information. This project presents a method of control in semi-closed-loop, through an expert fuzzy system based on rules. The fuzzy regulation is based on the human language ambiguity. This uncertainty serves for construction of some rules that represent the human language besides it is the system that controls a process, in this case the glucoregulatory system. This project is focus on the design of a fuzzy controller that, using variables like glucose insulin and diet, will be able to restore the pancreas endocrine function with technology. The algorithm assessment has mainly been done through experiments in simulation using a population of synthetic patients, evaluating the results with first order statistical parameters and some other more specific such as the Kovatchev risk index, to compare later these results with the ones obtained in others previous methods of control. The results demonstrate that the fuzzy control (FBPC) improves the glycemic control connected with a predictive expert system based on Booleans rules (pBRES). The FBPC is always able to reduce the maximum level of glucose and increase the minimum level as compared with pBRES but it is in unadjusted therapies where FBPC is especially strong, it manages to decrease the maximum level of glucose and insulin used by 8,64 mg/dl and 3,92 UI respectively, also increases the value of minimum glucose by 3,32 mg/dl, getting 15,33 samples more inside the 80-110 mg/dl glucose rank. Therefore we can conclude that FBPC achieves a better glycemic control than the controller pBRES doing it especially effective, robust and safe in conditions of mismatch basal therapy and with a great capacity for future improvements.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente proyecto se estudiará la conveniencia de utilizar simulación numérica para evaluar, diseñar y mejorar el diseño de instalaciones geotérmicas planas. Para ello, se modelizará el conjunto de terreno y sistema geotérmico mediante el acoplamiento de un modelo tridimensional (terreno) y un modelo unidimensional, formado por la red de tubería geotérmica, que estará dispuesta en un plano cuya orientación dependerá de las aplicaciones. Para la simulación numérica se utilizará un software de análisis y resolución por elementos finitos tipo comercial. Finalmente, se definirán unos parámetros geométricos de diseño y, teniendo en cuenta las propiedades térmicas de cada material, se realizarán estudios paramétricos para determinar la influencia de cada grupo de parámetros. Ello requerirá la realización de cientos de simulaciones numéricas que permitirán optimizar el rendimiento de sistemas geotérmicos planos tanto horizontales (soleras), como verticales (muros pantalla). ABSTRACT In this project it is going to be studied the convenience of numerical simulation as to evaluate, design and improve the design of geothermal planar installations. With this purpose, the terrain and the geothermal system will be modeled by coupling a three-dimensional model (terrain) and a one-dimensional model formed by the geothermal piping network disposed in a plane with an orientation which will depend on the applications. For the numerical simulation commercial software of analyzing and resolving by finite elements will be used. Finally, geometric design parameters will be defined, and taking into account the thermal properties of each material, parametric studies will be performed to determine the influence of each group of parameters. This will require the completion of hundreds of numerical simulations which will enhance the performance of both horizontal (slabs) and vertical (diaphragm walls) geothermal systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Diabetes Mellitus se define como el trastorno del metabolismo de los carbohidratos, resultante de una producción insuficiente o nula de insulina en las células beta del páncreas, o la manifestación de una sensibilidad reducida a la insulina por parte del sistema metabólico. La diabetes tipo 1 se caracteriza por la nula producción de insulina por la destrucción de las células beta del páncreas. Si no hay insulina en el torrente sanguíneo, la glucosa no puede ser absorbida por las células, produciéndose un estado de hiperglucemia en el paciente, que a medio y largo plazo si no es tratado puede ocasionar severas enfermedades, conocidos como síndromes de la diabetes. La diabetes tipo 1 es una enfermedad incurable pero controlable. La terapia para esta enfermedad consiste en la aplicación exógena de insulina con el objetivo de mantener el nivel de glucosa en sangre dentro de los límites normales. Dentro de las múltiples formas de aplicación de la insulina, en este proyecto se usará una bomba de infusión, que unida a un sensor subcutáneo de glucosa permitirá crear un lazo de control autónomo que regule la cantidad optima de insulina aplicada en cada momento. Cuando el algoritmo de control se utiliza en un sistema digital, junto con el sensor subcutáneo y bomba de infusión subcutánea, se conoce como páncreas artificial endocrino (PAE) de uso ambulatorio, hoy día todavía en fase de investigación. Estos algoritmos de control metabólico deben de ser evaluados en simulación para asegurar la integridad física de los pacientes, por lo que es necesario diseñar un sistema de simulación mediante el cual asegure la fiabilidad del PAE. Este sistema de simulación conecta los algoritmos con modelos metabólicos matemáticos para obtener una visión previa de su funcionamiento. En este escenario se diseñó DIABSIM, una herramienta desarrollada en LabViewTM, que posteriormente se trasladó a MATLABTM, y basada en el modelo matemático compartimental propuesto por Hovorka, con la que poder simular y evaluar distintos tipos de terapias y reguladores en lazo cerrado. Para comprobar que estas terapias y reguladores funcionan, una vez simulados y evaluados, se tiene que pasar a la experimentación real a través de un protocolo de ensayo clínico real, como paso previo al PEA ambulatorio. Para poder gestionar este protocolo de ensayo clínico real para la verificación de los algoritmos de control, se creó una interfaz de usuario a través de una serie de funciones de simulación y evaluación de terapias con insulina realizadas con MATLABTM (GUI: Graphics User Interface), conocido como Entorno de Páncreas artificial con Interfaz Clínica (EPIC). EPIC ha sido ya utilizada en 10 ensayos clínicos de los que se han ido proponiendo posibles mejoras, ampliaciones y/o cambios. Este proyecto propone una versión mejorada de la interfaz de usuario EPIC propuesta en un proyecto anterior para gestionar un protocolo de ensayo clínico real para la verificación de algoritmos de control en un ambiente hospitalario muy controlado, además de estudiar la viabilidad de conectar el GUI con SimulinkTM (entorno gráfico de Matlab de simulación de sistemas) para su conexión con un nuevo simulador de pacientes aprobado por la JDRF (Juvenil Diabetes Research Foundation). SUMMARY The diabetes mellitus is a metabolic disorder of carbohydrates, as result of an insufficient or null production of insulin in the beta cellules of pancreas, or the manifestation of a reduced sensibility to the insulin from the metabolic system. The type 1 diabetes is characterized for a null production of insulin due to destruction of the beta cellules. Without insulin in the bloodstream, glucose can’t be absorbed by the cellules, producing a hyperglycemia state in the patient and if pass a medium or long time and is not treated can cause severe disease like diabetes syndrome. The type 1 diabetes is an incurable disease but controllable one. The therapy for this disease consists on the exogenous insulin administration with the objective to maintain the glucose level in blood within the normal limits. For the insulin administration, in this project is used an infusion pump, that permit with a subcutaneous glucose sensor, create an autonomous control loop that regulate the optimal insulin amount apply in each moment. When the control algorithm is used in a digital system, with the subcutaneous senor and infusion subcutaneous pump, is named as “Artificial Endocrine Pancreas” for ambulatory use, currently under investigate. These metabolic control algorithms should be evaluates in simulation for assure patients’ physical integrity, for this reason is necessary to design a simulation system that assure the reliability of PAE. This simulation system connects algorithms with metabolic mathematics models for get a previous vision of its performance. In this scenario was created DIABSIMTM, a tool developed in LabView, that later was converted to MATLABTM, and based in the compartmental mathematic model proposed by Hovorka that could simulate and evaluate several different types of therapy and regulators in closed loop. To check the performance of these therapies and regulators, when have been simulated and evaluated, will be necessary to pass to real experimentation through a protocol of real clinical test like previous step to ambulatory PEA. To manage this protocol was created an user interface through the simulation and evaluation functions od therapies with insulin realized with MATLABTM (GUI: Graphics User Interface), known as “Entorno de Páncreas artificial con Interfaz Clínica” (EPIC).EPIC have been used in 10 clinical tests which have been proposed improvements, adds and changes. This project proposes a best version of user interface EPIC proposed in another project for manage a real test clinical protocol for checking control algorithms in a controlled hospital environment and besides studying viability to connect the GUI with SimulinkTM (Matlab graphical environment in systems simulation) for its connection with a new patients simulator approved for the JDRF (Juvenil Diabetes Research Foundation).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La utilización de simulaciones por ordenador en el campo de la neurociencia, ofrece una mejora radical en el método científico al proporcionar un medio en el que poder probar hipótesis sobre los complejos modelos biológicos. Hay que tener en cuenta que la calidad de las simulaciones es directamente proporcional a la calidad de los datos y a la exactitud en la abstracción matemática de los procesos biológicos. Las sinapsis son los contactos que permiten el intercambio de información entre neuronas. A través de ellas, las neuronas son capaces de formar circuitos que intervienen en las operaciones funcionales específicas de las distintas regiones del cerebro. Por tanto, puede considerarse a la sinapasis como la estructura elemental y la unidad funcional en la construcción de circuitos neuronales. La inmensa mayoría de las sinapsis del cerebro de los vertebrados son sinapsis químicas. En ellas el elemento presináptico es generalmente un terminal axónico, mientras que el elemento postsináptico puede ser un cuerpo neuronal, el segmento inicial del axón, un tronco dendrítico o una espina dendrítica. Las membranas de los elementos pre y postsináptico no entran en contacto, sino que están separadas por un pequeño espacio denominado hendidura sináptica. En una sinapsis química, el elemento presináptico libera una sustancia química, el neurotransmisor, que difunde por la hendidura sináptica y actúa sobre el elemento postsináptico. Desde un punto de vista operacional, una sinapsis convierte un impulso eléctrico que alcanza el elemento presináptico en una señal química, que a su vez provoca un fenómeno eléctrico en el lado postsináptico. Para que esto ocurra, el neurotransmisor liberado debe difundir por la hendidura sináptica e interactuar con receptores específicos presentes en la membrana postsináptica. Dependiendo del tipo de neurotransmisor utilizado y de los receptores implicados la sinapsis podrá ser excitatoria, si se estimula el elemento postsináptico, o inhibitoria si ocurre lo contrario.La transmisión sináptica ocurre a escala submicroscópica, lo que la hace inaccesible a la observación experimental directa. Sin embargo, tanto la difusión del neurotransmisor como su interacción con los receptores sinápticos pueden simularse dado que dependen de parámetros fisico-químicos conocidos. En este trabajo hemos elegido como objeto de estudio una sinapsis glutamatérgica (que usa glutamato como neurotransmisor excitatorio) debido a que es la sinapsis más común en la corteza cerebral. Si bien se conocen las propiedades de los diferentes tipos de receptores de glutamato, se desconoce la influencia que pueda tener en el comportamiento de la sinapsis la geometría de ésta, es decir, su forma y tamaño. Sabemos por estudios de microscopía electrónica que tanto la forma como el tamaño de las sinapsis son muy variables, y es precisamente esta variabilidad la que pretendemos simular, junto con otros parámetros como el número de receptores de neurotransmisor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se presenta un método para la simulación de terremotos, basado en la modelización conjunta de la fuente del sismo,emplazamiento de la estructura y trayectoria intermedia. Esta aproximación tiene la ventaja, respecto a los métodos clásicos, de hacer innecesarias muchas de las hipótesis obligadas en estos, fundamentalmente en lo que respecta al tipo y características del tren de ondas incidente. Por otra parte, al englobar la fuente en la discretización se facilita la cuantificación del terremoto, según las ideas más actuales (basadas precisamente en las características físicas de la falla). Naturalmente, el método presenta una parte negativa obvia: la complejidad y extensión del sistema a modelizar. Es por ello que el método de los elementos de contorno, al discretizar tan sólo el contorno, parece la solución adecuada. La comunicación se centra en la formulación del método, poniendo de relieve la facilidad con que la aproximación se incluye en un programa usual de ordenador como una simple subrutina más.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de esta Tesis ha sido la consecución de simulaciones en tiempo real de vehículos industriales modelizados como sistemas multicuerpo complejos formados por sólidos rígidos. Para el desarrollo de un programa de simulación deben considerarse cuatro aspectos fundamentales: la modelización del sistema multicuerpo (tipos de coordenadas, pares ideales o impuestos mediante fuerzas), la formulación a utilizar para plantear las ecuaciones diferenciales del movimiento (coordenadas dependientes o independientes, métodos globales o topológicos, forma de imponer las ecuaciones de restricción), el método de integración numérica para resolver estas ecuaciones en el tiempo (integradores explícitos o implícitos) y finalmente los detalles de la implementación realizada (lenguaje de programación, librerías matemáticas, técnicas de paralelización). Estas cuatro etapas están interrelacionadas entre sí y todas han formado parte de este trabajo. Desde la generación de modelos de una furgoneta y de camión con semirremolque, el uso de tres formulaciones dinámicas diferentes, la integración de las ecuaciones diferenciales del movimiento mediante métodos explícitos e implícitos, hasta el uso de funciones BLAS, de técnicas de matrices sparse y la introducción de paralelización para utilizar los distintos núcleos del procesador. El trabajo presentado en esta Tesis ha sido organizado en 8 capítulos, dedicándose el primero de ellos a la Introducción. En el Capítulo 2 se presentan dos formulaciones semirrecursivas diferentes, de las cuales la primera está basada en una doble transformación de velocidades, obteniéndose las ecuaciones diferenciales del movimiento en función de las aceleraciones relativas independientes. La integración numérica de estas ecuaciones se ha realizado con el método de Runge-Kutta explícito de cuarto orden. La segunda formulación está basada en coordenadas relativas dependientes, imponiendo las restricciones por medio de penalizadores en posición y corrigiendo las velocidades y aceleraciones mediante métodos de proyección. En este segundo caso la integración de las ecuaciones del movimiento se ha llevado a cabo mediante el integrador implícito HHT (Hilber, Hughes and Taylor), perteneciente a la familia de integradores estructurales de Newmark. En el Capítulo 3 se introduce la tercera formulación utilizada en esta Tesis. En este caso las uniones entre los sólidos del sistema se ha realizado mediante uniones flexibles, lo que obliga a imponer los pares por medio de fuerzas. Este tipo de uniones impide trabajar con coordenadas relativas, por lo que la posición del sistema y el planteamiento de las ecuaciones del movimiento se ha realizado utilizando coordenadas Cartesianas y parámetros de Euler. En esta formulación global se introducen las restricciones mediante fuerzas (con un planteamiento similar al de los penalizadores) y la estabilización del proceso de integración numérica se realiza también mediante proyecciones de velocidades y aceleraciones. En el Capítulo 4 se presenta una revisión de las principales herramientas y estrategias utilizadas para aumentar la eficiencia de las implementaciones de los distintos algoritmos. En primer lugar se incluye una serie de consideraciones básicas para aumentar la eficiencia numérica de las implementaciones. A continuación se mencionan las principales características de los analizadores de códigos utilizados y también las librerías matemáticas utilizadas para resolver los problemas de álgebra lineal tanto con matrices densas como sparse. Por último se desarrolla con un cierto detalle el tema de la paralelización en los actuales procesadores de varios núcleos, describiendo para ello el patrón empleado y las características más importantes de las dos herramientas propuestas, OpenMP y las TBB de Intel. Hay que señalar que las características de los sistemas multicuerpo problemas de pequeño tamaño, frecuente uso de la recursividad, y repetición intensiva en el tiempo de los cálculos con fuerte dependencia de los resultados anteriores dificultan extraordinariamente el uso de técnicas de paralelización frente a otras áreas de la mecánica computacional, tales como por ejemplo el cálculo por elementos finitos. Basándose en los conceptos mencionados en el Capítulo 4, el Capítulo 5 está dividido en tres secciones, una para cada formulación propuesta en esta Tesis. En cada una de estas secciones se describen los detalles de cómo se han realizado las distintas implementaciones propuestas para cada algoritmo y qué herramientas se han utilizado para ello. En la primera sección se muestra el uso de librerías numéricas para matrices densas y sparse en la formulación topológica semirrecursiva basada en la doble transformación de velocidades. En la segunda se describe la utilización de paralelización mediante OpenMP y TBB en la formulación semirrecursiva con penalizadores y proyecciones. Por último, se describe el uso de técnicas de matrices sparse y paralelización en la formulación global con uniones flexibles y parámetros de Euler. El Capítulo 6 describe los resultados alcanzados mediante las formulaciones e implementaciones descritas previamente. Este capítulo comienza con una descripción de la modelización y topología de los dos vehículos estudiados. El primer modelo es un vehículo de dos ejes del tipo chasis-cabina o furgoneta, perteneciente a la gama de vehículos de carga medianos. El segundo es un vehículo de cinco ejes que responde al modelo de un camión o cabina con semirremolque, perteneciente a la categoría de vehículos industriales pesados. En este capítulo además se realiza un estudio comparativo entre las simulaciones de estos vehículos con cada una de las formulaciones utilizadas y se presentan de modo cuantitativo los efectos de las mejoras alcanzadas con las distintas estrategias propuestas en esta Tesis. Con objeto de extraer conclusiones más fácilmente y para evaluar de un modo más objetivo las mejoras introducidas en la Tesis, todos los resultados de este capítulo se han obtenido con el mismo computador, que era el top de la gama Intel Xeon en 2007, pero que hoy día está ya algo obsoleto. Por último los Capítulos 7 y 8 están dedicados a las conclusiones finales y las futuras líneas de investigación que pueden derivar del trabajo realizado en esta Tesis. Los objetivos de realizar simulaciones en tiempo real de vehículos industriales de gran complejidad han sido alcanzados con varias de las formulaciones e implementaciones desarrolladas. ABSTRACT The objective of this Dissertation has been the achievement of real time simulations of industrial vehicles modeled as complex multibody systems made up by rigid bodies. For the development of a simulation program, four main aspects must be considered: the modeling of the multibody system (types of coordinates, ideal joints or imposed by means of forces), the formulation to be used to set the differential equations of motion (dependent or independent coordinates, global or topological methods, ways to impose constraints equations), the method of numerical integration to solve these equations in time (explicit or implicit integrators) and the details of the implementation carried out (programming language, mathematical libraries, parallelization techniques). These four stages are interrelated and all of them are part of this work. They involve the generation of models for a van and a semitrailer truck, the use of three different dynamic formulations, the integration of differential equations of motion through explicit and implicit methods, the use of BLAS functions and sparse matrix techniques, and the introduction of parallelization to use the different processor cores. The work presented in this Dissertation has been structured in eight chapters, the first of them being the Introduction. In Chapter 2, two different semi-recursive formulations are shown, of which the first one is based on a double velocity transformation, thus getting the differential equations of motion as a function of the independent relative accelerations. The numerical integration of these equations has been made with the Runge-Kutta explicit method of fourth order. The second formulation is based on dependent relative coordinates, imposing the constraints by means of position penalty coefficients and correcting the velocities and accelerations by projection methods. In this second case, the integration of the motion equations has been carried out by means of the HHT implicit integrator (Hilber, Hughes and Taylor), which belongs to the Newmark structural integrators family. In Chapter 3, the third formulation used in this Dissertation is presented. In this case, the joints between the bodies of the system have been considered as flexible joints, with forces used to impose the joint conditions. This kind of union hinders to work with relative coordinates, so the position of the system bodies and the setting of the equations of motion have been carried out using Cartesian coordinates and Euler parameters. In this global formulation, constraints are introduced through forces (with a similar approach to the penalty coefficients) are presented. The stabilization of the numerical integration is carried out also by velocity and accelerations projections. In Chapter 4, a revision of the main computer tools and strategies used to increase the efficiency of the implementations of the algorithms is presented. First of all, some basic considerations to increase the numerical efficiency of the implementations are included. Then the main characteristics of the code’ analyzers used and also the mathematical libraries used to solve linear algebra problems (both with dense and sparse matrices) are mentioned. Finally, the topic of parallelization in current multicore processors is developed thoroughly. For that, the pattern used and the most important characteristics of the tools proposed, OpenMP and Intel TBB, are described. It needs to be highlighted that the characteristics of multibody systems small size problems, frequent recursion use and intensive repetition along the time of the calculation with high dependencies of the previous results complicate extraordinarily the use of parallelization techniques against other computational mechanics areas, as the finite elements computation. Based on the concepts mentioned in Chapter 4, Chapter 5 is divided into three sections, one for each formulation proposed in this Dissertation. In each one of these sections, the details of how these different proposed implementations have been made for each algorithm and which tools have been used are described. In the first section, it is shown the use of numerical libraries for dense and sparse matrices in the semirecursive topological formulation based in the double velocity transformation. In the second one, the use of parallelization by means OpenMP and TBB is depicted in the semi-recursive formulation with penalization and projections. Lastly, the use of sparse matrices and parallelization techniques is described in the global formulation with flexible joints and Euler parameters. Chapter 6 depicts the achieved results through the formulations and implementations previously described. This chapter starts with a description of the modeling and topology of the two vehicles studied. The first model is a two-axle chassis-cabin or van like vehicle, which belongs to the range of medium charge vehicles. The second one is a five-axle vehicle belonging to the truck or cabin semi-trailer model, belonging to the heavy industrial vehicles category. In this chapter, a comparative study is done between the simulations of these vehicles with each one of the formulations used and the improvements achieved are presented in a quantitative way with the different strategies proposed in this Dissertation. With the aim of deducing the conclusions more easily and to evaluate in a more objective way the improvements introduced in the Dissertation, all the results of this chapter have been obtained with the same computer, which was the top one among the Intel Xeon range in 2007, but which is rather obsolete today. Finally, Chapters 7 and 8 are dedicated to the final conclusions and the future research projects that can be derived from the work presented in this Dissertation. The objectives of doing real time simulations in high complex industrial vehicles have been achieved with the formulations and implementations developed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La correcta validación y evaluación de cualquier algoritmo de registro incluido en la línea de procesamiento de cualquier aplicación clínica, es fundamental para asegurar la calidad y fiabilidad de los resultados obtenidos con ellas. Ambas características son imprescindibles, además, cuando dicha aplicación se encuentra en el área de la planificación quirúrgica, en la que las decisiones médicas influyen claramente en la invasividad sobre el paciente. El registro de imágenes es un proceso de alineamiento entre dos o más de éstas de forma que las características comunes se encuentren en el mismo punto del espacio. Este proceso, por tanto, se hace imprescindible en aquellas aplicaciones en las que existe la necesidad de combinar la información disponible en diferentes modalidades (fusión de imágenes) o bien la comparación de imágenes intra-modalidad tomadas de diferentes pacientes o en diferentes momentos. En el presente Trabajo Fin de Máster, se desarrolla un conjunto de herramientas para la evaluación de algoritmos de registro y se evalúan en la aplicación sobre imágenes multimodalidad a través de dos metodologías: 1) el uso de imágenes cuya alineación se conoce a priori a través de unos marcadores fiables (fiducial markers) eliminados de las imágenes antes del proceso de validación; y 2) el uso de imágenes sintetizadas con las propiedades de cierta modalidad de interés, generadas en base a otra modalidad objetivo y cuya des-alineación es controlada y conocida a priori. Para la primera de las metodologías, se hizo uso de un proyecto (RIRE – Retrospective Image Registration Evaluation Project) ampliamente conocido y que asegura la fiabilidad de la validación al realizarse por terceros. En la segunda, se propone la utilización de una metodología de simulación de imágenes SPECT (Single Photon Emission Computed Tomography) a partir de imágenes de Resonancia Magnética (que es la referencia anatómica). Finalmente, se realiza la modularización del algoritmo de registro validado en la herramienta FocusDET, para la localización del Foco Epileptógeno (FE) en Epilepsia parcial intratable, sustituyendo a la versión anterior en la que el proceso de registro se encontraba embebido en dicho software, dificultando enormemente cualquier tarea de revisión, validación o evaluación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se presenta en este artículo la simulación de las características de envases de vidrio, mediante modelos auto regresivos (AR), siguiendo el enfoque Box-Jenkins. El artículo se presenta en dos partes: en la primera, se demuestra la adecuación de un modelo AR (2), para la simulación de los espesores a partir de las características estadísticas determinadas sobre cortes longitudinales de envases reales. En la segunda parte, se presenta la forma práctica que se ha desarrollado para la simulación de una muestra de veinte recipientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los sistemas basados en la técnica OFDM (Multiplexación por División de Frecuencias Ortogonales) son una evolución de los tradicionales sistemas FDM (Multiplexación por División de Frecuencia), gracias a la cual se consigue un mejor aprovechamiento del ancho de banda. En la actualidad los sistemas OFDM y sus variantes ocupan un lugar muy importante en las comunicaciones, estando implementados en diversos estándares como pueden ser: DVB-T (estándar de la TDT), ADSL, LTE, WIMAX, DAB (radio digital), etc. Debido a ello, en este proyecto se implementa un sistema OFDM en el que poder realizar diversas simulaciones para entender mejor su funcionamiento. Para ello nos vamos a valer de la herramienta Matlab. Los objetivos fundamentales dentro de la simulación del sistema es poner a prueba el empleo de turbo códigos (comparándolo con los códigos convolucionales tradicionales) y de un ecualizador. Todo ello con la intención de mejorar la calidad de nuestro sistema (recibir menos bits erróneos) en condiciones cada vez más adversas: relaciones señal a ruido bajas y multitrayectos. Para ello se han implementado las funciones necesarias en Matlab, así como una interfaz gráfica para que sea más sencillo de utilizar el programa y más didáctico. En los capítulos segundo y tercero de este proyecto se efectúa un estudio de las bases de los sistemas OFDM. En el segundo nos centramos más en un estudio teórico puro para después pasar en el tercero a centrarnos únicamente en la teoría de los bloques implementados en el sistema OFDM que se desarrolla en este proyecto. En el capítulo cuarto se explican las distintas opciones que se pueden llevar a cabo mediante la interfaz implementada, a la vez que se elabora un manual para el correcto uso de la misma. El quinto capítulo se divide en dos partes, en la primera se muestran las representaciones que puede realizar el programa, y en la segunda únicamente se realizan simulaciones para comprobar que tal responde nuestra sistema a distintas configuraciones de canal, y las a distintas configuraciones que hagamos nosotros de nuestro sistema (utilicemos una codificación u otra, utilicemos el ecualizador o el prefijo cíclico, etc…). Para finalizar, en el último capítulo se exponen las conclusiones obtenidas en este proyecto, así como posibles líneas de trabajo que seguir en próximas versiones del mismo. ABSTRACT. Systems based on OFDM (Orthogonal Frequency Division Multiplexing) technique are an evolution of traditional FDM (Frequency Division Multiplexing). Due to the use of OFDM systems are achieved by more efficient use of bandwidth. Nowadays, OFDM systems and variants of OFDM systems occupy a very important place in the world of communications, being implemented in standards such as DVB-T, ADSL, LTE, WiMAX, DAB (digital radio) and another more. For all these reasons, this project implements a OFDM system for performing various simulations for better understanding of OFDM system operation. The system has been simulated using Matlab. With system simulation we search to get two key objectives: to test the use of turbo codes (compared to traditional convolutional codes) and an equalizer. We do so with the intention of improving the quality of our system (receive fewer rates of bit error) in increasingly adverse conditions: lower signal-to-noise and multipath. For these reasons necessaries Matlab´s functions have been developed, and a GUI (User Graphical Interface) has been integrated so the program can be used in a easier and more didactic way. This project is divided into five chapters. In the second and third chapter of this project are developed the basis of OFDM systems. Being developed in the second one a pure theoretical study, while focusing only on block theory implemented in the OFDM system in the third one. The fourth chapter describes the options that can be carried out by the interface implemented. Furthermore the chapter is developed for the correct use of the interface. The fifth chapter is divided into two parts, the first part shows to us the representations that the program can perform, and the second one just makes simulations to check that our system responds to differents channel configurations (use of convolutional codes or turbo codes, the use of equalizer or cyclic prefix…). Finally, the last chapter presents the conclusions of this project and possible lines of work to follow in future versions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo del presente estudio es obtener los campos de presión, velocidad y patrones de líneas de corriente, caída de presión a través de un codo, mediante simulación computacional utilizando un programa comercial de CFD. Para ello se emplea como fluido de trabajo agua como líquido saturado a 25ºC y Número de Reynolds (Re) igual a 2x10 5, la cual fluye a través de un codo liso de 90º con relación radio de curvatura/radio de la tubería (R/r) igual a 1. Se utiliza una malla no estructurada de elementos tetraédricos y hexaédricos en las zonas cercanas a las paredes internas y el modelo de turbulencia k-E con leyes de pared escalables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El reflectómetro óptico en el dominio del tiempo, conocido por sus siglas en inglés como OTDR, es un dispositivo muy utilizado en sistemas de comunicaciones por fibra óptica para conocer de una manera rápida y sencilla como varía la potencia óptica a lo largo de la fibra óptica, siendo otro de sus usos frecuentes la localización de fallos y roturas en un enlace. Este proyecto fin de carrera, consiste en la realización mediante Matlab de una interfaz gráfica que permite simular un OTDR para distintos tipos de fibras, conectores y empalmes visualizándose por pantalla la variación de la potencia óptica en función de la distancia, pudiendo ampliar cualquier tramo del enlace que se desee visualizar con mayor detalle. Los objetivos del proyecto podemos establecerlos en dos partes. Primero, realizar una interfaz que nos permita diseñar un enlace de fibra óptica de forma sencilla, permitiendo además medir desde la atenuación de la fibra a la de un empalme. En segundo lugar, emplear la interfaz desarrollada para comprobar conceptos teóricos, haciendo hincapié en los principales errores de un enlace de fibra óptica real. Para una mejor visualización y concepción de lo implementado, es necesario revisar los principios básicos de funcionamiento de la fibra óptica y las principales características de un enlace, así como, los distintos dispositivos que lo componen, para después explicar el funcionamiento del OTDR y sus usos; por ello, en los capítulos segundo y tercero, se explican estas nociones básicas, necesarias para un mejor entendimiento del proyecto. Para poder utilizar la interfaz gráfica de usuario, el capítulo cuarto muestra la descripción de las funciones con parámetros, así como el manual de usuario de la interfaz gráfica. En el capítulo quinto se hace una recopilación y estudios de resultados para distintas simulaciones comprobando desde casos sencillos a casos extremos en los que se debe prestar una especial atención a los elementos que componen el enlace, siendo finalmente, en el sexto capítulo donde se presentan distintas conclusiones así como posibles trabajos futuros, a partir de lo realizado. ABSTRACT. The optical time domain reflectometer, known as OTDR, is a widely used device in systems for fiber optic communications used to know quick and simply how the optical power its varying along the fiber, with particular emphasis to another of its frequent uses in troubleshooting on a link. This final project consists in carrying through a graphical interface in Matlab to simulate an OTDR for different types of fibers, connectors and splices, visualizing the variation of optical power as a function of the distance. It is possible to zoom in specific sections to view them with greater detail. The project objectives can be set in two parts: - Make an interface that allows us to design a fiber optic link easily and measuring from the fiber attenuation to a splice one. - Use the interface developed to test theoretical concepts, emphasizing the most important mistakes of a real optical fiber link. For better visualization and understanding of what it’s been implemented, it is necessary to review the basic operating principles of fiber optics and the main characteristics of a fiber link, and also the different types of devices that comprise it, and then explaining also how the OTDR works and its uses, therefore, in second and third chapters, explains these basics needed for a better understanding of the project. To use the GUI, the fourth chapter shows the description of the functions with parameters and the user manual of the GUI. The fifth chapter is a compilation and study of some simulation results for simple cases to check from simply to extreme cases putting special attention to the elements that make up the link. To sum up, in the sixth chapter will appear different conclusions and possible future works for improving the graphical interface or making a new one.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La finalidad última do codificación y decodificación es conseguir que el mensaje reconstituido sea idéntico al original. Sin la teoría de códigos los mensajes binarios se caracterizan por vectores o también por polinomios con coeficientes pertenecientes al cuerpo dé Galois GF [0,l]. Sobre los conceptos de código, código lineal, código cíclico,generación polinómica de códigos, distancia, síndrome, relaciones con los elementos de un cuerpo finito, detección y corrección, etc., el mejor autor de referencia sigue siendo Peterson

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se presenta en esta comunicación el tratamiento de problemas de potencial en sistemas bidimensionales, haciendo uso de la discretización de su contorno o frontera mediante elementos parabólicos tanto en geometría como en las variables de campo. Se estudian las ventajas frente al uso de elementos isoparamétricos lineales dentro de la teoría del potencial. Se presenta también un estudio sobre las zonas singulares a que dan lugar los elementos parabólicos degenerados = This paper presents a B.I.E.M. for potential theory, using in the discretization a completely isoparametric parabolic formulation; that is, the field variable, its first derivative and the boundary domain are interpolated using second orden piecewise polinomic. Several results are presented and comparison is mode with other simpler formulations. Also treated is the posibility of modelling singular behavior by moving the midside mode of selected elements.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La simulación de registros sísmicos, compatibles con espectros medios de diseño, se ha convertido en una necesidad en los últimos años, debido principalmente a su exigencia en la norma de regulación del cálculo de centrales nucleares. En este trabajo se presentan distintas posibilidades de realización de esta simulación, así como una comparación entre ellas, apareciendo como una alternativa efectiva a los métodos clásicos la utilización del contenido de fase de los seismos reales. Mediante ello se establece un procedimiento que elimina la arbitrariedad que supone el uso de una función envolvente para definir la característica no estacionaria del registro. Los distintos métodos son descritos detalladamente, así como la influencia de los diferentes parámetros que intervienen en cada uno de ellos. Por último se presentan algunos ejemplos numéricos = The simulation of spectrum-compatible earthquake time histories, has been a need since the beginning of the development of earthquake engineering for complicated structures. More than the safety of the main structure, the analysis of the equipment (piping, rackes, etc.) can be assesed only on the basis of time-histories of the floor in which they are contained. This paper presents several alternatives to the generation of sinthetic time histories and the use of the distribution of the differences among the phase-angles is demonstrated to be a useful tool to simulate the nonstationarity of the process. Thorugh the paper an extensive use is made of the F.F.T. algorithm.