42 resultados para COMPRESIÓN – PRUEBAS

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los bloques de tierra comprimida (BTC) están actualmente siendo estudiados en gran parte del mundo con diferentes estabilizantes para mejorar diversas de sus características. Esta situación es debida a la importancia que la tierra cruda tiene en el planeta como material de construcción. Su fácil disponibilidad, bajo coste e inercia térmica hacen de la tierra una materia prima fundamental para las viviendas de ciertas poblaciones en el mundo. El objetivo fundamental del presente Trabajo Fin de Máster es determinar si existe una relación del tamaño de partícula del material que aporta la sílice en relación a la reacción química con la cal hidratada para el aumento de la resistencia a compresión de los BTC. Para la diferenciación de los tamaños de partícula de sílice en este estudio se ha utilizado arcilla como componente control de las probetas ensayadas y una pequeña cantidad de nanosílice para comparar con las probetas sin este nanomaterial y determinar así la influencia del tamaño de partícula. Así mismo se han ensayado otros tipos de probetas para confirmar la influencia de la compactación mecánica en los BTC y de la cantidad de agua para considerar un equilibrio entre la resistencia y la trabajabilidad de los BTC. Durante la redacción del trabajo se repasará la importancia comentada de la tierra cruda en la construcción mundial y las principales técnicas que la han usado a lo largo de la historia para sentar las bases de los BTC actuales. También se comentarán y valorarán en lo relativo a los estabilizantes y la resistencia a compresión una serie de investigaciones publicadas con aspectos semejantes a los tratados en este estudio. A continuación se procederá a una explicación de los métodos ejercidos para los ensayos de las probetas de BTC correspondientes a este trabajo para más tarde realizar una discusión de los resultados obtenidos. Con todo ello se establecerán unas conclusiones en lo referente a los objetivos del trabajo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se analiza la influencia del espesor de la junta de mortero en el comportamiento estructural de probetas de fábrica de ladrillo cerámico bajo esfuerzos de compresión uniaxial. El ensayo de compresión reproduce la forma habitual de trabajo de estas estructuras. Se han ensayado nueve muros y nueve pilares, combinando tres espesores de junta de mortero, sometidos a carga de compresión hasta rotura. Con el fin de evaluar el progresivo agrietamiento del material durante el proceso de carga, se han realizado medidas con ultrasonidos. Además se han realizado medidas con extensómetros y esclerómetro para contrastar la validez de las medidas de ultrasonidos. Los resultados obtenidos muestran que existe una correlación entre los valores de la fuerza de compresión que soportan las probetas y el tamaño del espesor de la junta: a menor espesor de junta mayor carga de rotura. Del estudio también se desprende que esta relación es más clara en los muros que en los pilares, ya que la esbeltez de los muros es mayor y aparecen efectos de pandeo. La medida con ultrasonidos muestra una buena correlación con las medidas extenso métricas y permite una eficaz detección del agrietamiento interior del material durante el proceso de rotura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En 2005, un grupo de profesores de la Universidad Politécnica de Madrid (UPM) constituyó el Grupo de Innovación Educativa DMAE-DIA que fue reconocido como tal por la UPM en 2006 y en 2009. A posteriori, se han incorporado al grupo profesores de la Universidad Complutense de Madrid y de la Universidad Rey Juan Carlos Las líneas de actuación prioritarias del grupo son la evaluación de competencias genéricas y las metodologías de aprendizaje activo. Desde entonces estamos realizando evaluaciones sobre la adquisición por parte de estudiantes de ingeniería de algunas competencias genéricas. En este trabajo mostraremos las dos estrategias que estamos utilizando para evaluar la adquisición de competencias transversales: test psicométricos y pruebas (genéricas y específicas) con contenidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistema de seguimiento del instrumental laparoscópico basado en marcas artificiales: pruebas iniciales

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los sistemas basados en componentes hardware con niveles de paralelismo estático tienden a infrautilizar sus recursos lógicos, ya que se diseñan para soportar el peor escenario posible. Este hecho se acentúa cuando se trabaja con los nuevos estándares de compresión de vídeo, como son el H.264/AVC y el SVC. Estos necesitan soluciones flexibles, capaces de soportar distintos escenarios, y escalables a fin de maximizar la utilización de recursos en todo momento. Por ello, y como alternativa a las soluciones estáticas o multiprocesadoras, este artículo presenta una arquitectura hardware escalable y reconfigurable dinámicamente para el filtrado de bucle adaptativo o Deblocking Filter. Su funcionamiento se basa en el de los arrays sistólicos, y su estrategia de paralelismo maximiza el número de macrobloques que pueden ser procesos simultáneamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se muestra en este artículo el trabajo realizado durante las pruebas de carga de puesta en servicio del Nuevo Puente de Ventas sobre la M-30 de Madrid, con el fin de determinar los desplazamientos producidos mediante la aplicación de técnicas GPS, así como la discusión de precisiones obtenidas y posibilidades que encierra este tipo de sistemas de instrumentación de deformaciones en obra civil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este Proyecto Fin de Carrera trata sobre el estudio de la precisión de los modelos de transistores de radiofrecuencia y el efecto que la misma produce en un circuito real, como es la variabilidad de diversas magnitudes tales como la ganancia y el punto de compresión a 1 decibelio. Para ello se ha construido un circuito de pruebas que ha sido sometido a diversas simulaciones y sobre el que se han realizado numerosas medidas que han sido analizadas mediante software de análisis estadístico. This Final Year Project is about the study of the precision of models of radio frequency transistors and the effect it produces in a real circuit, as is the variability of various magnitudes such as gain and one‐decibel compression point. For this we have built a test circuit that has been subjected to various simulations and on which there have been numerous measures that have been analyzed by statistical analysis software.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métrica de calidad de video de alta definición construida a partir de ratios de referencia completa. La medida de calidad de video, en inglés Visual Quality Assessment (VQA), es uno de los mayores retos por solucionar en el entorno multimedia. La calidad de vídeo tiene un impacto altísimo en la percepción del usuario final (consumidor) de los servicios sustentados en la provisión de contenidos multimedia y, por tanto, factor clave en la valoración del nuevo paradigma denominado Calidad de la Experiencia, en inglés Quality of Experience (QoE). Los modelos de medida de calidad de vídeo se pueden agrupar en varias ramas según la base técnica que sustenta el sistema de medida, destacando en importancia los que emplean modelos psicovisuales orientados a reproducir las características del sistema visual humano, en inglés Human Visual System, del que toman sus siglas HVS, y los que, por el contrario, optan por una aproximación ingenieril en la que el cálculo de calidad está basado en la extracción de parámetros intrínsecos de la imagen y su comparación. A pesar de los avances recogidos en este campo en los últimos años, la investigación en métricas de calidad de vídeo, tanto en presencia de referencia (los modelos denominados de referencia completa), como en presencia de parte de ella (modelos de referencia reducida) e incluso los que trabajan en ausencia de la misma (denominados sin referencia), tiene un amplio camino de mejora y objetivos por alcanzar. Dentro de ellos, la medida de señales de alta definición, especialmente las utilizadas en las primeras etapas de la cadena de valor que son de muy alta calidad, son de especial interés por su influencia en la calidad final del servicio y no existen modelos fiables de medida en la actualidad. Esta tesis doctoral presenta un modelo de medida de calidad de referencia completa que hemos llamado PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), basado en la ponderación de cuatro ratios de calidad calculados a partir de características intrínsecas de la imagen. Son: El Ratio de Fidelidad, calculado mediante el gradiente morfológico o gradiente de Beucher. El Ratio de Similitud Visual, calculado mediante los puntos visualmente significativos de la imagen a través de filtrados locales de contraste. El Ratio de Nitidez, que procede de la extracción del estadístico de textura de Haralick contraste. El Ratio de Complejidad, obtenido de la definición de homogeneidad del conjunto de estadísticos de textura de Haralick PARMENIA presenta como novedad la utilización de la morfología matemática y estadísticos de Haralick como base de una métrica de medida de calidad, pues esas técnicas han estado tradicionalmente más ligadas a la teledetección y la segmentación de objetos. Además, la aproximación de la métrica como un conjunto ponderado de ratios es igualmente novedosa debido a que se alimenta de modelos de similitud estructural y otros más clásicos, basados en la perceptibilidad del error generado por la degradación de la señal asociada a la compresión. PARMENIA presenta resultados con una altísima correlación con las valoraciones MOS procedentes de las pruebas subjetivas a usuarios que se han realizado para la validación de la misma. El corpus de trabajo seleccionado procede de conjuntos de secuencias validados internacionalmente, de modo que los resultados aportados sean de la máxima calidad y el máximo rigor posible. La metodología de trabajo seguida ha consistido en la generación de un conjunto de secuencias de prueba de distintas calidades a través de la codificación con distintos escalones de cuantificación, la obtención de las valoraciones subjetivas de las mismas a través de pruebas subjetivas de calidad (basadas en la recomendación de la Unión Internacional de Telecomunicaciones BT.500), y la validación mediante el cálculo de la correlación de PARMENIA con estos valores subjetivos, cuantificada a través del coeficiente de correlación de Pearson. Una vez realizada la validación de los ratios y optimizada su influencia en la medida final y su alta correlación con la percepción, se ha realizado una segunda revisión sobre secuencias del hdtv test dataset 1 del Grupo de Expertos de Calidad de Vídeo (VQEG, Video Quality Expert Group) mostrando los resultados obtenidos sus claras ventajas. Abstract Visual Quality Assessment has been so far one of the most intriguing challenges on the media environment. Progressive evolution towards higher resolutions while increasing the quality needed (e.g. high definition and better image quality) aims to redefine models for quality measuring. Given the growing interest in multimedia services delivery, perceptual quality measurement has become a very active area of research. First, in this work, a classification of objective video quality metrics based on their underlying methodologies and approaches for measuring video quality has been introduced to sum up the state of the art. Then, this doctoral thesis describes an enhanced solution for full reference objective quality measurement based on mathematical morphology, texture features and visual similarity information that provides a normalized metric that we have called PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), with a high correlated MOS score. The PARMENIA metric is based on the pooling of different quality ratios that are obtained from three different approaches: Beucher’s gradient, local contrast filtering, and contrast and homogeneity Haralick’s texture features. The metric performance is excellent, and improves the current state of the art by providing a wide dynamic range that make easier to discriminate between very close quality coded sequences, especially for very high bit rates whose quality, currently, is transparent for quality metrics. PARMENIA introduces a degree of novelty against other working metrics: on the one hand, exploits the structural information variation to build the metric’s kernel, but complements the measure with texture information and a ratio of visual meaningful points that is closer to typical error sensitivity based approaches. We would like to point out that PARMENIA approach is the only metric built upon full reference ratios, and using mathematical morphology and texture features (typically used in segmentation) for quality assessment. On the other hand, it gets results with a wide dynamic range that allows measuring the quality of high definition sequences from bit rates of hundreds of Megabits (Mbps) down to typical distribution rates (5-6 Mbps), even streaming rates (1- 2 Mbps). Thus, a direct correlation between PARMENIA and MOS scores are easily constructed. PARMENIA may further enhance the number of available choices in objective quality measurement, especially for very high quality HD materials. All this results come from validation that has been achieved through internationally validated datasets on which subjective tests based on ITU-T BT.500 methodology have been carried out. Pearson correlation coefficient has been calculated to verify the accuracy of PARMENIA and its reliability.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el campo de la Ingeniería de Protocolos es fundamental el papel que han tomado los organismos normalizadores de Servicios y Sistemas de Comunicaciones, como ISO e ITU. En este entorno, las Técnicas de Descripción Formal son un mecanismo clave para el diseño y especificación de dichos protocolos.Esta actividad ha surgido, en gran parte, debida a las necesidades de interconectividad, que está alcanzando niveles difícilmente imaginables hace pocos añoos: se pretende que sistemas heterogéneos y completamente diferentes cooperen y trabajen de forma distribuida o, simplemente, que intercambien volúmenes de información cada vez mayores. Surgen normas y recomendaciones a partir de iniciativas públicas orientadas a proporcionar normas en los servicios y protocolos de comunicaciones; normas que los fabricantes deben cumplir y organismos independientes deben certificar u homologar. Existen dos campos de actuación bien diferentes: por un lado, las normas deben ser precisas y no contener ambigüedades . Por otro, es necesario comprobar que el producto se atiene a la norma. Este proceso se realiza en base a unas pruebas denominadas de Conformidad. l primer campo es el causante directo del desarrollo de las FDTs. El segundo, ha provocado que ISO normalice un entorno específico y una metodología para el desarrollo y ejecución de Pruebas de Conformidad: la norma ISO-9646. En este entorno tiene lugar el desarrollo de la presente tesis. Como objetivos fundamentales se ha trabajado en 1) conceptualización y subsiguiente formalización del proceso de ejecución de Pruebas de Conformidad y elementos integrantes en las arquitecturas de pruebas, y 2) definición de una métrica de cobertura que aproveche la existencia de especificaciones formales como elemento de referencia para la generación de las pruebas de conformidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La comprobación de la capacidad resistente de piezas comprimidas esbeltas es un problema bien codificado. Sin embargo la no linealidad del proceso de proyecto, sumada a la no linealidad del problema físico, exige un proceso iterativo para la definición de la pieza necesaria para resolver un problema dado. En este trabajo se demuestra la existencia de una relación de identidad entre problemas aparentemente diferentes, en base a la cual se desarrolla un enfoque teórico y un procedimiento sencillo que permite determinar, sin necesidad de iteración y sin apenas margen de error, la pieza necesaria para un problema dado. Se aporta un modelo estadístico que permite comprobar que el procedimiento aportado resulta seguro y eficiente en el 98 % de los problemas de edificación más habituales pilares y barras de cerchas El enfoque aportado permite por ello agilizar enormemente la toma de decisiones en este ámbito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivo: Analizar el grado de relación entre cuatro pruebas que valoran la funcionalidad de la marcha en sujetos jóvenes con daño cerebral adquirido (DCA) en fase subaguda y conocer el grado de relación entre estas pruebas y la percepción subjetiva de seguridad en actividades de la vida diaria. Metodología: 67 participantes jóvenes con DCA en fase subaguda (43 hombres y 24 mujeres) con una edad media 35,09 años. Se realizó estadística descriptiva de todas las variables demográficas: género, edad, IMC, meses desde que se produjo la lesión y etiología lesional. Para analizar si existe correlación entre las variables se utilizó el coeficiente de Pearson. Resultados: El Timed 10-Meter Walk presenta una correlación muy alta con Timed Up and Go (TUG) (r=093), alta con el 6-Minute Walk Test (r=0,77) y moderada con el Step Test (r=0,56). El 6-Minute Walk Test presenta una correlación alta con el TUG (r=0,82) y una correlación moderada con el Step Test (r=0,69). El Step Test presenta una correlación moderada con el TUG (r= -0,68). The Activities-specific Balance Confidence Scale (ABC) presenta una correlación moderada con el Timed 10-Meter Walk (r=0,42), TUG (R=0,40), 6-Minute Walk Test (r=0,40) y Step Test (r=0,44). Conclusiones: Las pruebas de funcionalidad de la marcha presentan una correlación significativa entre moderada y muy alta en personas jóvenes con DCA. El ABC presenta una correlación significativa moderada con las cuatro variables de funcionalidad de la marcha analizadas en esta población

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de la presente comunicación es presentar un nuevo procedimiento que permite determinar la curva tensión deformación plástica de un material a partir de un ensayo de compresión diametral. El método combina los resultados experimentales del ensayo de compresión diametral, cálculos numéricos por elementos finitos y un algoritmo iterativo original para ajustar los resultados numéricos a los resultados experimentales. El procedimiento se ha aplicado a una aleación de circonio, sometida a tres temperaturas 20°C, 135"C y 300°C con diferentes niveles de hidruración. Se ha obtenido una curva tensión deformación plástica para cada configuración que ajusta los valores experimentales a los numéricos de forma prácticamente perfecta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se presenta un procedimiento original para obtener la energía de fractura a partir de ensayos de compresión diametral realizados en tubos de pared delgada. El método propuesto combina resultados experimentales, cálculos numéricos por elementos finitos, en los que el proceso de rotura se ha modelizado con la teoría de la fisura cohesiva, y técnicas de optimización no lineal. Los parámetros del modelo cohesivo se han ajustado de forma automática de modo que la diferencia entre los resultados numéricos y los registros experimentales sea mínima. La técnica se ha aplicado para determinar la energía de fractura de una aleación comercial de circonio a distintas temperaturas 20°C, 135°C y 300°C, cargada con diferentes niveles de hidrógeno, desde 0 hasta 1200 ppm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el diseño de protecciones colectivas de obras de edificación se utilizan elementos de madera, como por ejemplo las barandillas de protección en sistemas provisionales de protección de borde. Una de las especies más utilizadas es el pino silvestre. Para el estudio del comportamiento de estos elementos ante los esfuerzos a los que van a estar sometidos es necesario conocer las características mecánicas del material. En este estudio se realiza un análisis del comportamiento piezas de madera de pino silvestre sometidas a compresión.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde hace ya muchos años, uno de los servicios de telecomunicaciones más demandado por los españoles ha sido la televisión de pago, complementando y ampliando la oferta de contenidos audiovisuales que habitualmente son ofrecidos de manera gratuita por la televisión analógica y recientemente por la televisión digital terrestre o TDT. Estos servicios de video, han sido tradicionalmente ofrecidos por operadores satélites, operadores de cable u otros operadores de telecomunicaciones con los que a través de una conexión de datos (ADSL, VDSL o fibra óptica), ofrecían sus contenidos a través de IP. La propia evolución y mejora de la tecnología utilizada para la emisión de contenidos sobre IP, ha permitido que a día de hoy, la televisión se conciba como un servicio Over The Top (OTT) ajeno al medio de transmisión, permitiendo a cualquier agente, distribuir sus contenidos audiovisuales de manera sencilla y a todos sus clientes en todas las partes del mundo; siendo solamente necesario disponer de una conexión a internet. De esta manera, el proyecto desarrollado va a girar en torno a la herramienta StormTest de la empresa S3Group, comprada por CENTUM Solutions (empresa especializada en ofrecer servicio de ingeniería para sistema de comunicaciones, control e inteligencia de señal) con el objetivo de satisfacer las necesidades de sus clientes y con la que en definitiva se ha contado para la realización de este proyecto. El principal objetivo de este proyecto es la definición e implementación de un banco de pruebas que permita optimizar los procesos de validación técnica, mejorando los tiempos de ejecución y concentrando la actividad de los ingenieros en tareas de mayor valor. Para la realización de este proyecto, se han fijado diversos objetivos necesarios para el desarrollo de este tipo de actividades. Los principales son los siguientes:  Análisis de la problemática actual: donde en los procesos de aceptación técnica se dedica muchas horas de trabajo para la realización de pruebas repetitivas y de poco valor las cuales se pueden automatizar por herramientas existentes en el mercado.  Búsqueda y selección de una herramienta que satisfaga las necesidades de pruebas.  Instalación en los laboratorios.  Configuración y adaptación de la herramienta a las necesidades y proyectos específicos. Con todo ello, este proyecto cubrirá los siguientes logros:  Reducir los tiempos de ejecución de las campañas de pruebas, gracias a la automatización de gran parte ellas.  Realizar medidas de calidad subjetiva y objetiva complejas, imposibles de ejecutar a través de las personas. Mejorar y automatizar los sistemas de reporte de resultados. Abstract: Many years ago, one of the telecommunications services most demanded in Spain has been pay television, complementing and extending the offer of audiovisual content which are usually offered for free by analog tv and recently by digital terrestrial televisión or TDT. These video services, have been traditionally offered by satellite operators, cable operators or other telecommunications operators that through a data connection (ADSL,VDSL or fiber optic), offered its content over IP. The evolution and improvement of the technology used for broadcasting over IP, has allowed that to date, television is conceived as a service Over The Top (OTT), not dependent on the transmission medium, allowing any agent to distribute audiovisual content in a very simple way and to all its customers in all parts of the world; being only necessary to have an decent internet connection. In this way, the project will have relation with S3Group’s StormTest tool, bought by CENTUM Solutions (company specialized in engineering services for communications, control and signal intelligence system) with the aim of satisfying the needs of its customers and which ultimately has counted for the realization of this project. The main objective of this project is the definition and implementation of a test bench that allows to optimize the processes of technical validation, improving execution times and concentrating the activities of engineers on higher value tasks. For the realization of this project, it has been defined several objectives necessary for the development of this type of activity. The most important tones are listed below:  Analysis of the current situation: where in technical acceptance processes it is dedicated many hours of work for the completion of repetitive testing and without value which can be automated by tools available on the market  Search and selection of a tool that meets the needs of testing.  Installation on the laboratories.  Configuration and customization of the tool to specific projects. With all this, this project will cover the following achievements: Reduce the execution time of the testing campaigns, thanks to the automation of many of them.  Measurements of subjective and objective quality tests, impossible to run with engineers (due to subjective perception). Improve and automate reporting of results systems