930 resultados para Parámetros de control


Relevância:

100.00% 100.00%

Publicador:

Resumo:

[ES]En la problemática medioambiental generada por la contaminación atmosférica hay tres aspectos que marcan las directrices de actuación institucional: la presión social, la legislación vigente y la tecnología disponible. En cuanto a este último aspecto, la biofiltración es una tecnología eficaz, asequible y sostenible basada en la actividad biodegradadora de microorganismos específicos adheridos a la superficie de un material soporte que constituye el lecho del biofiltro. La elección de un material soporte adecuado es de especial importancia para asegurar el correcto funcionamiento de los biofiltros. Esta decisión está basada en las propiedades intrínsecas del material que deben ser analizadas previamente a su uso. En este proyecto se ha seleccionado cuales son estas propiedades básicas a partir de una revisión bibliográfica, destacando la capacidad de retención de humedad, superficie específica, porosidad, y estabilidad física y química del material. En este trabajo, también se han fijado los parámetros de control que deben ser medidos de forma rutinaria en un biofiltro para asegurar la eficacia del tratamiento de descontaminación. En base a la información bibliográfica recopilada, se ha concluido que los parámetros básicos son pH, temperatura, contenido de humedad del lecho y pérdidas de carga. A nivel experimental, se han medido las pérdidas de carga generadas en biofiltros empacados con tres materiales soportes que son de especial interés para una investigación posterior a desarrollar por el grupo Biofiltración de la Universidad del País Vasco (UPV/EHU). Durante el período de arranque inicial de los tres biofiltros, las pérdidas de carga medidas fueron muy bajas en los tres casos, aunque algo superiores cuando la alimentación era en sentido ascendente frente al flujo descendente. Sin embargo, cuando se midieron las pérdidas de carga bajo condiciones de encharcamiento del lecho, que es una de las situaciones más problemáticas en un biofiltro, todos los soportes presentaron un aumento puntual de la pérdida de carga aunque la tendencia en los días posteriores fue claramente descendente, recuperando valores de operación habituales. La comparativa del comportamiento frente a las pérdidas de carga permitió seleccionar el soporte más idóneo de los tres analizados, aunque los otros dos podrían ser alternativas viables en caso de sustitución.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

El objetivo de la presente revisión bibliográfica es describir cuales son los indicadores que permiten cuantificar la carga de entrenamiento en el ciclismo. La cuantificación de la carga de entrenamiento es de suma importancia si se pretende analizar y establecer relaciones de causa-efecto entre el trabajo realizado y las adaptaciones fisiológicas provocadas. Entre los más utilizados podemos resaltar al índice de esfuerzo percibido, la frecuencia cardiaca y la producción de potencia. Comprender la respuesta del organismo ante una determinada carga de trabajo resulta fundamental para poder encauzar el proceso de entrenamiento en función de cada etapa de preparación. Luego de estudiar los parámetros de control anteriormente citados, llegamos a la conclusión de que no existe un único parámetro que logre medir tanto las respuestas a nivel central como a nivel periférico del organismo ante una carga de trabajo determinada. Lo más certero seria la utilización de varios al mismo tiempo

Relevância:

70.00% 70.00%

Publicador:

Resumo:

El objetivo de la presente revisión bibliográfica es describir cuales son los indicadores que permiten cuantificar la carga de entrenamiento en el ciclismo. La cuantificación de la carga de entrenamiento es de suma importancia si se pretende analizar y establecer relaciones de causa-efecto entre el trabajo realizado y las adaptaciones fisiológicas provocadas. Entre los más utilizados podemos resaltar al índice de esfuerzo percibido, la frecuencia cardiaca y la producción de potencia. Comprender la respuesta del organismo ante una determinada carga de trabajo resulta fundamental para poder encauzar el proceso de entrenamiento en función de cada etapa de preparación. Luego de estudiar los parámetros de control anteriormente citados, llegamos a la conclusión de que no existe un único parámetro que logre medir tanto las respuestas a nivel central como a nivel periférico del organismo ante una carga de trabajo determinada. Lo más certero seria la utilización de varios al mismo tiempo

Relevância:

70.00% 70.00%

Publicador:

Resumo:

El objetivo de la presente revisión bibliográfica es describir cuales son los indicadores que permiten cuantificar la carga de entrenamiento en el ciclismo. La cuantificación de la carga de entrenamiento es de suma importancia si se pretende analizar y establecer relaciones de causa-efecto entre el trabajo realizado y las adaptaciones fisiológicas provocadas. Entre los más utilizados podemos resaltar al índice de esfuerzo percibido, la frecuencia cardiaca y la producción de potencia. Comprender la respuesta del organismo ante una determinada carga de trabajo resulta fundamental para poder encauzar el proceso de entrenamiento en función de cada etapa de preparación. Luego de estudiar los parámetros de control anteriormente citados, llegamos a la conclusión de que no existe un único parámetro que logre medir tanto las respuestas a nivel central como a nivel periférico del organismo ante una carga de trabajo determinada. Lo más certero seria la utilización de varios al mismo tiempo

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Desde la aparición del turborreactor, el motor aeróbico con turbomaquinaria ha demostrado unas prestaciones excepcionales en los regímenes subsónico y supersónico bajo. No obstante, la operación a velocidades superiores requiere sistemas más complejos y pesados, lo cual ha imposibilitado la ejecución de estos conceptos. Los recientes avances tecnológicos, especialmente en materiales ligeros, han restablecido el interés por los motores de ciclo combinado. La simulación numérica de estos nuevos conceptos es esencial para estimar las prestaciones de la planta propulsiva, así como para abordar las dificultades de integración entre célula y motor durante las primeras etapas de diseño. Al mismo tiempo, la evaluación de estos extraordinarios motores requiere una metodología de análisis distinta. La tesis doctoral versa sobre el diseño y el análisis de los mencionados conceptos propulsivos mediante el modelado numérico y la simulación dinámica con herramientas de vanguardia. Las distintas arquitecturas presentadas por los ciclos combinados basados en sendos turborreactor y motor cohete, así como los diversos sistemas comprendidos en cada uno de ellos, hacen necesario establecer una referencia común para su evaluación. Es más, la tendencia actual hacia aeronaves "más eléctricas" requiere una nueva métrica para juzgar la aptitud de un proceso de generación de empuje en el que coexisten diversas formas de energía. A este respecto, la combinación del Primer y Segundo Principios define, en un marco de referencia absoluto, la calidad de la trasferencia de energía entre los diferentes sistemas. Esta idea, que se ha estado empleando desde hace mucho tiempo en el análisis de plantas de potencia terrestres, ha sido extendida para relacionar la misión de la aeronave con la ineficiencia de cada proceso involucrado en la generación de empuje. La metodología se ilustra mediante el estudio del motor de ciclo combinado variable de una aeronave para el crucero a Mach 5. El diseño de un acelerador de ciclo combinado basado en el turborreactor sirve para subrayar la importancia de la integración del motor y la célula. El diseño está limitado por la trayectoria ascensional y el espacio disponible en la aeronave de crucero supersónico. Posteriormente se calculan las prestaciones instaladas de la planta propulsiva en función de la velocidad y la altitud de vuelo y los parámetros de control del motor: relación de compresión, relación aire/combustible y área de garganta. ABSTRACT Since the advent of the turbojet, the air-breathing engine with rotating machinery has demonstrated exceptional performance in the subsonic and low supersonic regimes. However, the operation at higher speeds requires further system complexity and weight, which so far has impeded the realization of these concepts. Recent technology developments, especially in lightweight materials, have restored the interest towards combined-cycle engines. The numerical simulation of these new concepts is essential at the early design stages to compute a first estimate of the engine performance in addition to addressing airframe-engine integration issues. In parallel, a different analysis methodology is required to evaluate these unconventional engines. The doctoral thesis concerns the design and analysis of the aforementioned engine concepts by means of numerical modeling and dynamic simulation with state-of-the-art tools. A common reference is needed to evaluate the different architectures of the turbine and the rocket-based combined-cycle engines as well as the various systems within each one of them. Furthermore, the actual trend towards more electric aircraft necessitates a common metric to judge the suitability of a thrust generation process where different forms of energy coexist. In line with this, the combination of the First and the Second Laws yields the quality of the energy being transferred between the systems on an absolute reference frame. This idea, which has been since long applied to the analysis of on-ground power plants, was extended here to relate the aircraft mission with the inefficiency of every process related to the thrust generation. The methodology is illustrated with the study of a variable- combined-cycle engine for a Mach 5 cruise aircraft. The design of a turbine-based combined-cycle booster serves to highlight the importance of the engine-airframe integration. The design is constrained by the ascent trajectory and the allocated space in the supersonic cruise aircraft. The installed performance of the propulsive plant is then computed as a function of the flight speed and altitude and the engine control parameters: pressure ratio, air-to-fuel ratio and throat area.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabajo tiene por objeto la implementación del modelo ADM1 (The IWA Anaerobic Digestion Model No.1), para evaluar su capacidad de simular el proceso de digestión anaerobia de lodos de agua residual. Para implementar el modelo ADM1 se eligió el software Matlab y su herramienta Simulink, por su capacidad para simular sistemas dinámicos. Los resultados demostraron que la simulación a través de la implementación del modelo ADM1, es capaz de predecir la mayoría de los valores medios correspondientes a los parámetros de control más comunes del proceso de digestión anaerobia que se lleva a cabo en la Estación de depuración de aguas residuales (EDAR) sur de Madrid. Se deduce del estudio que la implementación del modelo ADM1 desarrollada mediante Matlab/Simulink, es capaz de simular el proceso dinámico de digestión anaerobia de cualquier EDAR, si se ajustan algunos de los parámetros del modelo para cada caso concreto. Abstract This work aims at the implementation of The IWA Anaerobic Digestion Model No.1 (ADM1) in order to assess its ability to simulate the anaerobic digestion process of wastewater sludge. A Matlab/Simulink implementation of the ADM1 was developed, the simulations results shows that the ADM1 is able to predict the average values of the most common control parameters of the anaerobic digestion process that takes place in the Waste water treatment plant (WWTP) south of Madrid. It is deduced of the estudy that the Matlab implementation of the ADM1 developed, is able to simulate the anaerobic digestion dynamic process of a WWTP, if some of the model parameters are fitted for each specific case.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El objetivo fundamental de la investigación es el estudio de los fundamentos constructivos de las fábricas históricas de tapia de tierra y mampostería encofrada de las fortificaciones bajomedievales. Ante las incertidumbres detectadas en la datación de estas estructuras y frente al excesivo número de excepciones que quedan fuera de las clasificaciones tradicionalmente empleadas para estudiar este tipo de técnicas, el artículo desarrolla una propuesta de tipología o taxonomía constructiva basada en un sistema abierto. Este sistema nace del análisis de un número significativo de fábricas y atiende a diversos parámetros de control para la completa caracterización de cada fábrica: material, grado de compactación, función constructiva, encofrado, acabado superficial, combinación de materiales y situación, profundidad, formación y sección de los agujales. Cada fábrica se clasifica mediante una etiqueta alfanumérica. El sistema permite establecer tipos constructivos con los que se genera una clasificación cronotipológica constructiva. ABSTRACT The principal aim of the research is the study of the constructive reasons of the historical masonries built with rammed earth and formwork masonry, belonging to late medieval fortifications. Uncertainties have been warned about dating the historical masonries and there are excessive exceptions that do not fall in the rankings traditionally employed to study these techniques. Due to these reasons, the article develops a proposal of constructive typology or taxonomy based in an open system that comes from the analysis of a representative number of masonries and that attends to several control parameters tor the complete characterization of each masonry: material, compaction degree, constructive function, formwork, rendering, combination of materials and, last, the situation, deepness, formation and section of the putlogholes. Each masonry is classified through an alphanumeric label. The system allows establishing several constructive types which it is possible to do a cronotypological and constructive classification.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabajo muestra cómo se realiza la enseñanza de robótica mediante un robot modular y los resultados educativos obtenidos en el Máster Universitario en Automática y Robótica de la Escuela Politécnica Superior de la Universidad de Alicante. En el artículo se describen los resultados obtenidos con el uso de este robot modular tanto en competencias genéricas como específicas, en las enseñanzas de electrónica, control y programación del Máster. En este artículo se exponen los objetivos de aprendizaje para cada uno de ellos, su aplicación a la enseñanza y los resultados educativos obtenidos. En los resultados del estudio, cabe destacar que el alumno ha mostrado mayor interés y ha fomentado su aprendizaje autónomo. Para ello, el robot modular se construyó con herramientas para fomentar este tipo de enseñanza y aprendizaje, tales como comunicaciones interactivas para monitorizar, cambiar y adaptar diversos parámetros de control y potencia del robot.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabajo presenta el diseño, construcción y programación de un robot modular para el desarrollo tanto de competencias genéricas como específicas, en las enseñanzas de electrónica, control y programación del Master de Automática y Robótica de la Escuela Politécnica Superior de la Universidad de Alicante. En este trabajo se exponen los diferentes módulos propuestos, así como los objetivos de aprendizaje para cada uno de ellos. Uno de los factores más importantes a destacar en el presente estudio es el posible desarrollo de la creatividad y el aprendizaje autónomo. Para ello, se desarrollará especialmente un módulo de comunicación por bluetooth que servirá para monitorizar, cambiar y adaptar on-line diversos parámetros de control y potencia del robot. Además, dicha herramienta se ha introducido como parte de la metodología en las asignaturas del Máster de Electromecánica y Sistemas de Control Automático. En esta memoria se mostrarán los distintos resultados obtenidos durante y en la finalización de este trabajo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Sistema de coloración de superficies mediante el empleo de soluciones de partículas nanoscópicas metálicas depositadas sobre la superficie del objeto a tintar. Al no suponer un recubrimiento completo de la superficie, como el que se da en depósitos moleculares, sino un depósito discreto de partículas, dejará pasar los detalles originales de la superficie. Este método presenta la ventaja de que el color se controla mediante la elección del tipo de partícula o mezcla de ellas y no únicamente mediante el control del espesor de la lámina depositada, en el caso de deposiciones moleculares. Lo parámetros de control y diseño son: forma de las partículas, tamaño de las partículas, relación de aspecto de las mismas, naturaleza material de las partículas, concentración de partículas, relación de mezcla de las partículas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Es importante diagnosticar tempranamente la afección renal y prevenir las alteraciones a nivel microvascular, para lo cual hemos tomado en consideración la determinación de la nicroalbuminuria, los niveles sanguíneos de fibrinógeno cuya elevación es considerada como factor de riesgo de la nefropatía. Los parámetros de control glucémico generados por la hemoglobina glicosilada y la fructosamina constituyen hasta hoy el mejor método para el control del metabolismo de los carboidratos, forman parte de nuestros objetivos, determinar sus valores. En nuestro estudio el 52 por ciento de la población estudiada presenta microalbuminuria basal positiva. El 70 por ciento de los investigados presenta un control dentro de parámetros normales, sin embargo el 52 por ciento de los pacientes con DM, a pesar de este buen control, presentan nofropatía irreversible. Del total de nefrópatas [52 por ciento], el 29 por ciento de los pacientes son del sexo femenino el 23 por ciento son del sexo masculino. Se observó que los años de evolución de la biabetes, tienen especial importancia en cuanto a la producción de la nefropatía, del 100 por cien de pacientes nefrópatas el 58 por ciento tenía entre 5 y 14 años de haber sido diagnosticado de diabetes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Se realizó un estudio clínico descriptivo en 80 pacientes en labor de parto, en el Hospital Vicente Corral Moscoso de la ciudad de Cuenca en 1995, con el objeto de evaluar ecográficamente, durante la labor de parto, la estática, antropometría, el grado de bienestar fetal y determinar el perfil neuroconductal. Se establecieron 2 grupos; un grupo control conformado por 40 pacientes en labor de parto en las que se realizó el control clínico y un grupo de pacintes [grupo de estudio] en las que además de la valoración se realizó el control ecográfico, considerando principalmente como parámetros de control agudos de movimientos respiratorios, movimientos oculares, movimientos corporales y bucales, el tono fetal y la estimulación vibroacústica tipo 1 [reflejo de sobresalto]. Se encontró que el perfil neuroconductual planteado en el trabajo tiene una sensibilidad del 100 por ciento, con una especificidad del 82.6 por ciento, un valor predictivo de la prueba negativa del 100 por ciento. La exactitud es de 90 por ciento y el índice de Kappa de 0.75 por ciento. La prueba de Fisher, al comparar cada uno de los parámetros con la valoración del Apgar es significativa con una probabilidad de p menos 0.01. La escala de puntuación utilizada incluyó; 10, feto sano; 8, sospecha de hipoxia fetal; 6, hipoxia fetal leve; 4 hipoxia fetal moderada; y 0-2, hipoxia fetal grave. Se observó correlación entre puntaje del perfil neuroconductual y el exámen clínico del recién nacido. Durante la labor de parto el diámetro biparietal para la estimación del peso fetal no tiene utilidad clínica. Se acompaña una revisión bibliográfica exhaustiva, se exponen las conclusiones y se realizan las recomendaciones pertinentes

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A total of 5575 monthly test-day yield records from 796 lactations buffaloes first in the north coast of Colombia. The model included random direct additive genetic and permanent environment effects. As fixed effects were included, contemporary groups, and age of cow at calving as covaraible, linear and quadratic effects. Test-day (PLDC) yield was 3.89 ± 1.14 kg. The PLDC ranged from 2.86 kg to 4.26 kg while the highest values towards the middle of lactation. The heritability estimates obtained for PLDC ranged from 0.23 to 0.47. Genetic correlations between PLDC, declining steadily increased the distance between PLDC. Phenotypic variances were higher in the initial PLDC and decreasing towards the end of lactation. The results found in this study indicate that there is a high genetic variability for the PLDC in the population studied using a random regression model.