159 resultados para Calibración
Resumo:
El objetivo principal del presente proyecto es implantar un sistema de calidad en un laboratorio de caracterización de residuos, con el fin de obtener la acreditación otorgada por la Entidad Nacional de Acreditación (ENAC) como laboratorio de caracterización de residuos metalúrgicos no férreos. El sistema de calidad a implantar se basa en la Norma UNE-EN ISO/IEC 17025:2005 (requisitos generales para la competencia de los laboratorios de ensayo y calibración). Se trata por tanto de determinar los principales residuos de proceso y operación, de la metalurgia del Al, Cu, Zn y Pb, para posteriormente y mediante las normas UNEEN-CEN identificar los ensayos normalizados de caracterización de dichos residuos. y adecuar dichos ensayos a la norma. Finalmente se describe el proceso de implantación del sistema de calidad basado en la citada norma, y se hace un estudio económico que incluye tanto los gastos de inversión en equipos como los gastos de operación y mantenimiento (CAPEX y OPEX). Todo ello para poder ser acreditados por un organismo como ENAC.
Resumo:
This document is a summary of the Bachelor thesis titled “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” written by Pablo de Miguel Morales, Electronics Engineering student at the Universidad Politécnica de Madrid (UPM Madrid, Spain) during an Erasmus+ Exchange Program at the Beuth Hochschule für Technik (BHT Berlin, Germany). The tutor of this project is Dr. Prof. Hild. This project has been developed inside the Neurobotics Research Laboratory (NRL) in close collaboration with Benjamin Panreck, a member of the NRL, and another exchange student from the UPM Pablo Gabriel Lezcano. For a deeper comprehension of the content of the thesis, a deeper look in the document is needed as well as the viewing of the videos and the VHDL design. In the growing field of automation, a large amount of workforce is dedicated to improve, adapt and design motor controllers for a wide variety of applications. In the specific field of robotics or other machinery designed to interact with humans or their environment, new needs and technological solutions are often being discovered due to the existing, relatively unexplored new scenario it is. The project consisted of three main parts: Two VHDL-based systems and one short experiment on the haptic perception. Both VHDL systems are based on a Cognitive Sensorimotor Loop (CSL) which is a control loop designed by the NRL and mainly developed by Dr. Prof. Hild. The CSL is a control loop whose main characteristic is the fact that it does not use any external sensor to measure the speed or position of the motor but the motor itself. The motor always generates a voltage that is proportional to its angular speed so it does not need calibration. This method is energy efficient and simplifies control loops in complex systems. The first system, named CSL Stay In Touch (SIT), consists in a one DC motor system controller by a FPGA Board (Zynq ZYBO 7000) whose aim is to keep contact with any external object that touches its Sensing Platform in both directions. Apart from the main behavior, three features (Search Mode, Inertia Mode and Return Mode) have been designed to enhance the haptic interaction experience. Additionally, a VGA-Screen is also controlled by the FPGA Board for the monitoring of the whole system. This system has been completely developed, tested and improved; analyzing its timing and consumption properties. The second system, named CSL Fingerlike Mechanism (FM), consists in a fingerlike mechanical system controlled by two DC motors (Each controlling one part of the finger). The behavior is similar to the first system but in a more complex structure. This system was optional and not part of the original objectives of the thesis and it could not be properly finished and tested due to the lack of time. The haptic perception experiment was an experiment conducted to have an insight into the complexity of human haptic perception in order to implement this knowledge into technological applications. The experiment consisted in testing the capability of the subjects to recognize different objects and shapes while being blindfolded and with their ears covered. Two groups were done, one had full haptic perception while the other had to explore the environment with a plastic piece attached to their finger to create a haptic handicap. The conclusion of the thesis was that a haptic system based only on a CSL-based system is not enough to retrieve valuable information from the environment and that other sensors are needed (temperature, pressure, etc.) but that a CSL-based system is very useful to control the force applied by the system to interact with haptic sensible surfaces such as skin or tactile screens. RESUMEN. Este documento es un resumen del proyecto fin de grado titulado “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” escrito por Pablo de Miguel, estudiante de Ingeniería Electrónica de Comunicaciones en la Universidad Politécnica de Madrid (UPM Madrid, España) durante un programa de intercambio Erasmus+ en la Beuth Hochschule für Technik (BHT Berlin, Alemania). El tutor de este proyecto ha sido Dr. Prof. Hild. Este proyecto se ha desarrollado dentro del Neurorobotics Research Laboratory (NRL) en estrecha colaboración con Benjamin Panreck (un miembro del NRL) y con Pablo Lezcano (Otro estudiante de intercambio de la UPM). Para una comprensión completa del trabajo es necesaria una lectura detenida de todo el documento y el visionado de los videos y análisis del diseño VHDL incluidos en el CD adjunto. En el creciente sector de la automatización, una gran cantidad de esfuerzo está dedicada a mejorar, adaptar y diseñar controladores de motor para un gran rango de aplicaciones. En el campo específico de la robótica u otra maquinaria diseñada para interactuar con los humanos o con su entorno, nuevas necesidades y soluciones tecnológicas se siguen desarrollado debido al relativamente inexplorado y nuevo escenario que supone. El proyecto consta de tres partes principales: Dos sistemas basados en VHDL y un pequeño experimento sobre la percepción háptica. Ambos sistemas VHDL están basados en el Cognitive Sesnorimotor Loop (CSL) que es un lazo de control creado por el NRL y cuyo desarrollador principal ha sido Dr. Prof. Hild. El CSL es un lazo de control cuya principal característica es la ausencia de sensores externos para medir la velocidad o la posición del motor, usando el propio motor como sensor. El motor siempre genera un voltaje proporcional a su velocidad angular de modo que no es necesaria calibración. Este método es eficiente en términos energéticos y simplifica los lazos de control en sistemas complejos. El primer sistema, llamado CSL Stay In Touch (SIT), consiste en un sistema formado por un motor DC controlado por una FPGA Board (Zynq ZYBO 7000) cuyo objetivo es mantener contacto con cualquier objeto externo que toque su plataforma sensible en ambas direcciones. Aparte del funcionamiento básico, tres modos (Search Mode, Inertia Mode y Return Mode) han sido diseñados para mejorar la interacción. Adicionalmente, se ha diseñado el control a través de la FPGA Board de una pantalla VGA para la monitorización de todo el sistema. El sistema ha sido totalmente desarrollado, testeado y mejorado; analizando su propiedades de timing y consumo energético. El segundo sistema, llamado CSL Fingerlike Mechanism (FM), consiste en un mecanismo similar a un dedo controlado por dos motores DC (Cada uno controlando una falange). Su comportamiento es similar al del primer sistema pero con una estructura más compleja. Este sistema no formaba parte de los objetivos iniciales del proyecto y por lo tanto era opcional. No pudo ser plenamente desarrollado debido a la falta de tiempo. El experimento de percepción háptica fue diseñado para profundizar en la percepción háptica humana con el objetivo de aplicar este conocimiento en aplicaciones tecnológicas. El experimento consistía en testear la capacidad de los sujetos para reconocer diferentes objetos, formas y texturas en condiciones de privación del sentido del oído y la vista. Se crearon dos grupos, en uno los sujetos tenían plena percepción háptica mientras que en el otro debían interactuar con los objetos a través de una pieza de plástico para generar un hándicap háptico. La conclusión del proyecto fue que un sistema háptico basado solo en sistemas CSL no es suficiente para recopilar información valiosa del entorno y que debe hacer uso de otros sensores (temperatura, presión, etc.). En cambio, un sistema basado en CSL es idóneo para el control de la fuerza aplicada por el sistema durante la interacción con superficies hápticas sensibles tales como la piel o pantallas táctiles.
Resumo:
El fenómeno de explosión sobre estructuras de hormigón tiene efectos en muchos casos catastróficos a pesar de su reducida frecuencia. Las edificaciones civiles no suelen estar diseñadas para resistir este tipo de solicitación dinámica, por lo que conviene disponer de una metodología que permita analizar los efectos de las explosiones sobre las mismas. Este trabajo estudia el comportamiento de las estructuras reticuladas de hormigón armado frente a estas acciones, mediante métodos numéricos de elementos finitos lagrangianos con integración explícita en el tiempo. Se analizan de forma realista partes de la estructura como columnas y forjados usando modelos con hormigón y armaduras de forma segregada, pero las limitaciones computacionales los hacen inviables para estructuras completas. Se proponen modelos de elementos lámina y viga debidamente calibrados para obtener una respuesta similar. Se obtienen conclusiones para el uso y calibración de modelos y simulaciones realistas de edificios completos para estudios de seguridad.
Resumo:
El final del Serravalliense y principio del Tortoniense es un periodo de fuerte actividad tectónica en la Cordillera Bética. Además, existe un debate sobre la existencia de sedimentos de edad Tortoniense inferior al no existir claras atribuciones fósiles en esa edad. Estos sedimentos se asignan a dicha edad por criterios indirectos, tanto estratigráficos como por la ausencia de contenido fósil más antiguo o más reciente. En este trabajo se describe la sección compuesta de Les Moreres-Albatera, que es probablemente una de las secciones más completas de edad Tortoniense en la bibliografía de la Cordillera Bética, pese a tener un importante hiato de cerca de 1 Millón de años ligado a un evento tectónico intra-Tortoniense. La sección presenta dos unidades litológicas calizas a la base (El Castellà) y al techo (Las Ventanas) y dos unidades intermedias margosas, la inferior, llamada Les Moreres, y la superior, Galería de los Suizos se encuentran separadas por el conglomerado de la Raya del Búho. Se han identificado las biozonas de nanofósiles calcáreos CN5b/NN7 a CN9a/NN11a (Okada & Bukry, 1980; Martini, 1971) y de foraminíferos planctónicos de MMi9 a MMi12a (Lourens et al., 2004). La biostratigrafía de los primeros ha permitido identificar un hiato que incluye la parte alta de las biozonas CN7/NN9 hasta la parte baja de CN9a/NN11a (Okada & Bukry, 1980; Martini, 1971). La integración de los datos biostratigráficos con los paleomagnéticos en la sección Albatera permite la calibración del límite de los magnetocrones C4r.1r/C4n.2n.
Resumo:
Hoy en día es común estudiar los patrones globales de biodiversidad a partir de las predicciones generadas por diferentes modelos de nicho ecológico. Habitualmente, estos modelos se calibran con datos procedentes de bases de datos de libre acceso (e.g. GBIF). Sin embargo, a pesar de la facilidad de descarga y de la accesibilidad de los datos, la información almacenada sobre las localidades donde están presentes las especies suele tener sesgos y errores. Estos problemas en los datos de calibración pueden modificar drásticamente las predicciones de los modelos y con ello pueden enmascarar los patrones macroecológicos reales. El objetivo de este trabajo es investigar qué métodos producen resultados más precisos cuando los datos de calibración incluyen sesgos y cuáles producen mejores resultados cuando los datos de calibración tienen, además de sesgos, errores. Para ello creado una especie virtual, hemos proyectado su distribución en la península ibérica, hemos muestreado su distribución de manera sesgada y hemos calibrado dos tipos de modelos de distribución (Bioclim y Maxent) con muestras de distintos tamaños. Nuestros resultados indican que cuando los datos sólo están sesgados, los resultados de Bioclim son mejores que los de Maxent. Sin embargo, Bioclim es extremadamente sensible a la presencia de errores en los datos de calibración. En estas situaciones, el comportamiento de Maxent es mucho más robusto y las predicciones que proporciona son más ajustadas.
Resumo:
The detailed, rich and diverse Argaric funerary record offers an opportunity to explore social dimensions that usually remain elusive for prehistoric research, such us social rules on kinship rights and obligations, sexual tolerance and the role of funerary practices in preserving the economic and political organization. This paper addresses these topics through an analysis of the social meaning of Argaric double tombs by looking at body treatment and composition of grave goods assemblages according to gender and class affiliation. The Argaric seems to have been a conservative society, scarcely tolerant regarding homosexuality, and willing to celebrate ancestry associated to certain places as a means of asserting residence and property rights.
Resumo:
This work represents an original contribution to the methodology for ecosystem models' development as well as the rst attempt of an end-to-end (E2E) model of the Northern Humboldt Current Ecosystem (NHCE). The main purpose of the developed model is to build a tool for ecosystem-based management and decision making, reason why the credibility of the model is essential, and this can be assessed through confrontation to data. Additionally, the NHCE exhibits a high climatic and oceanographic variability at several scales, the major source of interannual variability being the interruption of the upwelling seasonality by the El Niño Southern Oscillation, which has direct e ects on larval survival and sh recruitment success. Fishing activity can also be highly variable, depending on the abundance and accessibility of the main shery resources. This context brings the two main methodological questions addressed in this thesis, through the development of an end-to-end model coupling the high trophic level model OSMOSE to the hydrodynamics and biogeochemical model ROMS-PISCES: i) how to calibrate ecosystem models using time series data and ii) how to incorporate the impact of the interannual variability of the environment and shing. First, this thesis highlights some issues related to the confrontation of complex ecosystem models to data and proposes a methodology for a sequential multi-phases calibration of ecosystem models. We propose two criteria to classify the parameters of a model: the model dependency and the time variability of the parameters. Then, these criteria along with the availability of approximate initial estimates are used as decision rules to determine which parameters need to be estimated, and their precedence order in the sequential calibration process. Additionally, a new Evolutionary Algorithm designed for the calibration of stochastic models (e.g Individual Based Model) and optimized for maximum likelihood estimation has been developed and applied to the calibration of the OSMOSE model to time series data. The environmental variability is explicit in the model: the ROMS-PISCES model forces the OSMOSE model and drives potential bottom-up e ects up the foodweb through plankton and sh trophic interactions, as well as through changes in the spatial distribution of sh. The latter e ect was taken into account using presence/ absence species distribution models which are traditionally assessed through a confusion matrix and the statistical metrics associated to it. However, when considering the prediction of the habitat against time, the variability in the spatial distribution of the habitat can be summarized and validated using the emerging patterns from the shape of the spatial distributions. We modeled the potential habitat of the main species of the Humboldt Current Ecosystem using several sources of information ( sheries, scienti c surveys and satellite monitoring of vessels) jointly with environmental data from remote sensing and in situ observations, from 1992 to 2008. The potential habitat was predicted over the study period with monthly resolution, and the model was validated using quantitative and qualitative information of the system using a pattern oriented approach. The nal ROMS-PISCES-OSMOSE E2E ecosystem model for the NHCE was calibrated using our evolutionary algorithm and a likelihood approach to t monthly time series data of landings, abundance indices and catch at length distributions from 1992 to 2008. To conclude, some potential applications of the model for shery management are presented and their limitations and perspectives discussed.
Resumo:
Dada la importancia que hoy día presenta dentro del ámbito de la óptica, la implementación y conocimiento de dispositivos capaces tanto de generar aberraciones ópticas bien caracterizadas como de censarlas, se presenta a lo largo de este trabajo el desarrollo de una interfaz gráfica en MATLAB, que permita simular el funcionamiento tanto de un sensor de frente de onda de Hartamnn-Shack (HS), así como la simulación de dispositivos capaces de modificar frentes de onda como los SLM, adicionando algoritmos de propagación y cálculo de centroides -- Para ello, se implementarán en primer lugar máscaras de fase que generen frentes de onda aberrados a partir de la modulación en fase de moduladores espaciales de luz o SLM, tanto a través de funciones lente de primer orden en representación de las aberraciones constantes, como de fase cuadrática en representación de las aberraciones de bajo orden y adicionalmente como combinaciones lineales de polinomios de Zernike -- Todo lo anterior se simulará teniendo en cuenta las características técnicas de los SLM, como lo son el número de pixeles en x y en y, el tamaño de estos y la curva de calibración de los moduladores espaciales, tanto para una relación lineal como para una relación no lineal -- Posteriormente se simularán las dos propagaciones sufridas por los haces de luz desde el SLM hasta el CCD (dispositivo de carga acoplada), pasando a través de la matriz de multilentes del HS (MLA), a partir de la implementación de algoritmos de propagación de un solo paso, que nos permitirán observar sobre el plano del CDD el mapa de spots necesario para el censado de las superficies -- Continuaremos con la construcción de algoritmos para determinar los centroides de dicho mapa y sus respectivas coordenadas, seguiremos con la implementación de algoritmos de reconstrucción modal empleados por sensores de frente de onda de Hartmann-Shack, y finalmente compararemos el grado de error existente entre las superficies generadas y las superficies censadas a través del cálculo de su error cuadrático medio
Resumo:
Este trabajo presenta la determinación del contenido de carbohidratos totales en treinta bebidas analcohólicas altamente consumidas por adolescentes escolarizados de la ciudad de Cuenca y Nabón, por medio de la cual se identificaron las bebidas analcohólicas con el más alto contenido calórico que se consumen localmente y se realizó una comparación con lo declarado en sus respectivas etiquetas. Esta cuantificación se realizó mediante el método de Dubois, aplicado sin clarificación previa y utilizando la curva de calibración de sacarosa como patrón. Debido a la alta concentración de carbohidratos en las bebidas se realizaron diluciones sucesivas de cada muestra, para posteriormente aplicar el método de Dubois: a 1 mLde muestra diluida se añadió 500 µL de fenol y 2,5 mL de ácido sulfúrico concentrado; luego de una incubación en baño de hielo por 30 minutos, se realizó la medición de absorbancias en el espectrofotómetro a una longitud de onda de 490 nm. Tras los cálculos utilizando la curva de calibración, los resultados se expresaron en mg/L y en mg de carbohidratos totales por porción de bebida analcohólica (240 mL). De los resultados obtenidos se identificó al jugo FACUNDO NÉCTAR DE GUAYABA, la COLADA DE AVENA Y DE MAICENA, y el PULP NÉCTAR DE MANGO como aquellas con la concentración más elevada de carbohidratos totales. También se descartó la existencia de una relación entre la concentración de azúcar y el costo de la bebida (r=0,21; R2=0,012).Finalmente no se encontró una diferencia significativa entre los resultados obtenidos y los indicados en las etiquetas (t-test, P=0,19). El método utilizado en el análisis presenta varias ventajas como es la rapidez, sensibilidad a bajas concentraciones de azúcar, los reactivos son baratos y estables, entre otras. Además que las interferencias que presenta pueden ser evitadas sin ningún problema.
Resumo:
En el presente trabajo de grado se expone un compendio de las diferentes metodologías utilizadas en el diseño hidrológico e hidráulico de obras de drenaje menores y mayores, marcando la diferencia entre las empleadas en el diseño de un nuevo trazado vial y en la ampliación o rehabilitación de una vía existente. También se aplican algunas de las metodologías de diseño en una vía que pertenece al municipio de Urrao, Antioquia, como parte de uno de los sitios de ejecución dentro del proyecto “Procesos de Transferencia e Innovación Tecnológica Para la Construcción Sostenible de Vías Terciarias” de la Red INNOVIAL. Se presenta la propuesta de una cuneta recubierta en sacos de suelo-cemento, con una sección triangular de un ancho más reducido al propuesto por el INVIAS (2007), conservando la capacidad hidráulica necesaria para transportar los caudales de escorrentía propios de las zonas montañosas de Antioquia. Para determinar la capacidad hidráulica de dicha sección se utiliza la ecuación de Manning, para la cual, se realiza una calibración en laboratorio del coeficiente de Manning, a partir de un montaje que incluye un canal en lámina de acero de dos metros de largo y de pendiente variable.
Resumo:
Los productos del metabolismo secundario de plantas suelen ser de interés biotecnológico como plaguicidas naturales útiles para mejorar estrategias agroecológicas o en el manejo de ecosistemas más amigables con el ambiente. Con el propósito de iniciar estudios en esta temática se procedió a: a) establecimiento, en medios sólidos y en suspensión, de cultivos celulares de Azadirachta indica ; b) extracción secuencial fraccionada, aislamiento y detección de Azadiractina mediante cromatografía de capa fina; c) identificación, cuantificación del compuesto por cromatografía de líquidos, y comprobación de su actividad biológica. Todas las actividades se realizaron en el laboratorio de biotecnología de células vegetales del centro de investigaciones y estudios avanzados (CINVESTAV), México, a finales del año 2009. Los resultados indican la presencia de terpenoides en los extractos obtenidos, la Azadiractina fue aislada y detectada mediante cromatografía de capa fina (Rf 0,2). Este compuesto fue identificado también por la coincidencia de su tiempo de retención (20 min) con el del estándar en la cromatografía líquida de alta resolución de la muestra semipurificada. Fue cuantificado interpolando su absorbancia en la curva de calibración obtenida con diferentes concentraciones del estándar. Se encontraron 1.67 mg g -1 peso seco de este compuesto en las semillas estudiadas, y mediante bioensayos fue comprobado el efecto fungicida del extracto. Adicionalmente, fueron establecidos cultivos in vitro.
Resumo:
El objetivo del presente estudio es determinar la frecuencia de interferencias oclusales en pacientes edéntulos parciales clase III de Kennedy, que acuden a la Clínica Odontológica de la Universidad Santo Toribio de Mogrovejo de la provincia de Chiclayo, 2015. El diseño del estudio fue transversal y descriptivo. La población de estudio fue representada por 40 pacientes de la clínica odontológica universitaria que cumplieron con los criterios de selección. Se diseñó una ficha de recolección de datos. Se capacitó y se realizó la calibración intra e interexaminador de los investigadores gracias a la participación de un especialista en Rehabilitación Oral, a fin de lograr una estandarización en los criterios de evaluación, verificado mediante índice de Kappa. Se encontró que el 73% del total de los pacientes presentaban interferencias oclusales en céntrica, el 53% en protrusiva, el 80% en lateralidad derecha y el 65% en lateralidad izquierda. Para obtener los resultados de nuestro estudio utilizamos el software Microsoft Excel. Básandonos en nuestros resultados, la mayoría de pacientes edéntulos parciales clase III de Kennedy, presentaron interferencias oclusales, tanto en céntrica, protrusiva, lateralidad derecha e izquierda.
Resumo:
La ingesta de etanol se ha relacionado a consecuencias lamentables a nivel social, familiar y jurídico; siendo importante el desarrollo de métodos de detección de etanol en sangre, prueba más confiable a nivel cuantitativo. En el presente trabajo se realizó la primera fase de la optimización de un método para el análisis de alcoholemia por cromatografía de gases con inyección directa y detección de ionización de llama (GC-FID). Se realizó la optimización de algunos parámetros cualitativos y cuantitativos, incluyendo tiempos de retención estables, selectividad del método demostrado por la ausencia de sustancias interferentes en el análisis; linealidad a bajos niveles con un coeficiente de determinación de R2 = 0.996. La aplicabilidad del método en un pool de 33 muestras con distintas concentraciones de etanol tomadas cómo puntos de referencia de baja, media y alta concentración. La cuantificación se realizó por estandarización interna mediante el uso de un estándar interno (n-butanol) y la estandarización externa mediante la curva de calibración a 4 niveles.
Resumo:
En esta tesis se estudia la fricción en juntas rocosas utilizando el Método de Elementos Discretos (DEM). En particular, se estudia la influencia de la rugosidad de las superficies de la junta, la elasticidad, la fractura, y el nivel de carga de compresión sobre el comportamiento de cierre y de cizalla de las juntas rocosas. Por primera vez la rugosidad de las juntas considerada como auto-afín es utilizada para estudiar la fricción de juntas rocosas, la rugosidad se describe mediante tres parámetros: el exponente de rugosidad, la longitud de correlación auto-afín y la varianza de alturas. Mediante un algoritmo de computadora basado en métodos espectrales, ocho superficies autoafines isotrópicas con diferente rugosidad fueron creadas. Posteriormente, las ocho superficies fueron utilizadas como moldes para generar las juntas utilizando elementos discretos. Antes de realizar las simulaciones de compresión y cizallaura, se calibraron las propiedades elásticas y de fractura (criterio de fractura elíptico basado en esfuerzos) de las juntas numéricas a los datos experimentales (obtenidos previamente) de unas muestras de mortero mediante la utilización de un volumen elemental representativo (REV). Una vez que las propiedades mecánicas de las juntas se obtuvieron mediante la calibración del REV, se realizaron las pruebas de cierre (prueba de compresión) de las ocho juntas DEM. Se utilizaron dos niveles de esfuerzo de compresión para las pruebas de cierre: 14 MPa y 21 MPa. Después, las ocho juntas DEM fueron cizalladas en dos direcciones mutuamente perpendiculares. Para cada dirección de cizalla y cada nivel de esfuerzo de compresión (14 y 21 MPa), las juntas fueron cizalladas usando uno de los tres modelos mecánicos siguientes: 1) un modelo rígido, en el que las juntas no se pueden deformar, excepto en su superficie, 2) un modelo puramente elástico, en el que las juntas se pueden deformar en todo su volumen y 3) un modelo elástico con fractura en el que las juntas se pueden deformar en su volumen y, si el esfuerzo sobre las uniones entre partículas excede cierto nivel de esfuerzo máximo, las uniones se rompen de una manera irreversible. El uso de estos tres modelos mecánicos nos permitirá estudiar de manera sistemática: la influencia de la rugosidad (modelo rígido), la influencia de la elasticidad y rugosidad (modelo puramente elástico) y, finalmente, el efecto combinado de la rugosidad de las juntas, la elasticidad y la fractura (modelo elástico con fractura). El estudio de los resultados obtenidos de las simulaciones DEM es seguido por una análisis energético el cual permite estudiar la evolución de los diferentes tipos de energía en función del desplazamiento de cizalla: energía elástica almacenada en el sistema, energía de fricción entre elementos discretos, el trabajo relacionado con la dilatación de la junta y la energía disipada por el amortiguamiento interno del DEM.
Resumo:
Objetivo: evaluar el rendimiento del score de predicción de mortalidad PIM 2 en una población de pacientes pediátricos críticos. Materiales y métodos: se realizó un estudio prospectivo, entre el 01 de enero y el 31 de diciembre de 2013. Se incluyeron todos los pacientes con una edad comprendida entre 29 días y 14 años que ingresaron a la Unidad de Cuidados Intensivos Pediátricos (CIP) de la Asociación Española. Fueron excluidos aquellos pacientes que fallecieron antes de las 12 horas, los que ingresaron para monitorización u observación luego de procedimientos endoscópicos o quirúrgicos menores o para realización de vías y los neonatos. Para evaluar el rendimiento del score PIM 2 se analizó tanto su calibración, como su discriminación, mediante la aplicación del test de bondad de ajuste de Hosmer-Lemeshow y la construcción de la curva ROC y el cálculo del área bajo la curva. Resultados: se incluyeron 184 pacientes para el análisis. La tasa de mortalidad de esta población fue de 5,4% (IC95% 1,88-8,98). La media de internación fue de 8,3 días (rango 12 horas a 27 días) y en el caso de los fallecidos fue de 11.3 días (rango 1-20). La aplicación del test de Hosmer-Lemeshow arrojó un valor de Chi cuadrado de 5,37 (p=0,71). El área bajo la curva ROC fue de 0,90. Para un punto de corte de 0,5 el rendimiento de la prueba evidenció una validez global del 96,7% (IC 95% entre 93,77-99,57), un valor predictivo positivo del 100% (87,50-100) y un valor predictivo negativo de 96,67% (93,77-99,57). La sensibilidad para este corte fue del 40% (4,64-75,36) y una especificidad del 100% (99,71-100). Conclusiones: el score PIM 2 ha presentado en la población estudiada una adecuada calibración y discriminación global. Por tanto, su utilidad como instrumento para medición y evaluación de la calidad asistencial permanece vigente. Pese a ello, su aplicabilidad práctica fue limitada en pacientes asignados a deciles de riesgo “bajo” en donde el score presentó problemas de discriminación y una alta tasa de falsos negativos.