926 resultados para Longitud


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inscripción: "Presentada al Rey nuestro señor por el Excmo. Sr. Baylº Fr. Dn. Antonio Valdes...y construida por...Dn Vicente Tofiño de Sn. Miguel..."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas LIDAR (Light Detection and Ranging) permiten medir la distancia entre dos puntos, evaluando el tiempo que tarda una señal óptica (generalmente procedente de un Láser) en hacer un recorrido de ida y vuelta entre dichos puntos. En los sistemas CW-RM (Continuous Wave - Random Modulated) esta evaluación se hace calculando la correlación entre la señal emitida (pseudoaleatoria) y la recibida (cuyo retardo depender de la distancia entre los puntos). Este sistema CW-RM tiene la ventaja sobre los TOF (Time Of Flight) de que funcionan bien ún con señales recibidas de reducida relación señal a ruido. La precisión de la medida, depende, entre otros parámetros, del tiempo de bit de la secuencia pseudoaleatoria y de la frecuencia de muestreo del sistema que capta las señales y posteriormente las correla. El objetivo del presente trabajo es realizar un sistema de gran precisión, utilizando señales pseudoaleatorias de tiempo de bit de centenas de pico segundo y frecuencia de muestreo de Gs/s, para lo que deberemos utilizar equipamiento disponible en laboratorio, as mismo deberemos seleccionar y con guiar los láseres emisores para que puedan trabajar a estas velocidades. La primera etapa del proyecto será el conocimiento del instrumental de laboratorio que vamos a utilizar en el set-up. La segunda etapa será la realización de un primer montaje en el que se conectará emisor y receptor a través de una fibra óptica de longitud conocida. Esto nos permitir á el desarrollo de algoritmos para extraer información de la medida y para una calibración del instrumental para posteriores medidas. La tercera etapa es el diseño definitivo con emisor al aire para el que tendremos que ajustar todos los elementos ópticos del sistema, de modo que se pueda detectar la luz reflejada y además se pueda reducir parte de la luz de background.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis Doctoral aborda el estudio de la resistencia a carga concentrada transversal del alma de vigas metálicas cuando se dispone un nervio inferior de rigidez, que puede materializarse mediante una célula triangular soldada al ala inferior de la viga y sobre el que se aplica directamente la carga. En primer lugar se presenta, de una forma cualitativa, las mejoras resistentes que aporta este diseño frente a la resistencia de una viga doble T (o alma equivalente de una sección cajón) con el ala inferior exenta. Se concluye que esta solución tiene gran interés de cara al diseño de puentes empujados, ya que, con una ejecución muy simple, puede mejorarse de forma sustancial la resistencia a carga concentrada transversal del alma sin recurrir a soluciones mucho más costosas como disponer rigidización longitudinal o, en última instancia, aumentar el espesor de alma por motivos resistentes en una fase constructiva. Se analizan en detalle todas las investigaciones realizadas, a lo largo de más de 80 años, sobre la resistencia de vigas metálicas a carga concentrada transversal, llevadas a cabo únicamente sobre vigas doble T con o sin rigidización longitudinal. Se centra el análisis en investigar los mecanismos resistentes identificados, con objeto de determinar si las distintas formulaciones planteadas contemplan mecanismos de resistencia aplicables al caso de vigas con nervio de rigidez. Se profundiza posteriormente en el análisis de la contribución de un nervio de rigidez a la resistencia a carga concentrada transversal. A través de modelos numéricos de elementos finitos no lineales, se simula la resistencia última de secciones reales de puentes metálicos de tipo doble T a las que se añade un nervio de rigidez y se constata el incremento notable en la resistencia que aporta el nervio. Se identifican los mecanismos resistentes involucrados, mediante un modelo híbrido de elementos finitos con el nervio modelizado con elementos viga, de forma que se obtienen resultados de esfuerzos y movimientos en el propio nervio, como viga en flexión, que resultan de gran claridad para la interpretación estructural del fenómeno. Con ello, se compara la resistencia calculada con la vigente formulación de EAE y EN1993 con la obtenida en vigas doble T y vigas con nervio de rigidez y se concluye que tal formulación es insuficiente para evaluar la resistencia de estas últimas, ya que no reproduce el mecanismo de resistencia conjunta del nervio y rigidizadores, adicional a la simple contribución del alma a la resistencia. A la vista de ello se plantea una formulación alternativa, que contempla de forma explícita los mecanismos resistentes complementarios identificados: flexión longitudinal del nervio, cuando los rigidizadores están más separados que la longitud de alma resistente, y contribución directa de los rigidizadores a la resistencia plástica cuando se aproximan a menor separación que la longitud de alma resistente. Las conclusiones derivadas de todo el análisis anterior se aplican al diseño de un caso real de puente empujado, en el que se suprime toda la rigidización longitudinal y, sobre unas almas exentas de espesor suficiente por resistencia a cortante, se dispone un nervio de rigidez. Los mecanismos resistentes identificados en la Tesis Doctoral, apoyados en la formulación planteada al efecto, permiten al ingeniero alternativas de diseño frente a las posibilidades que le otorga la vigente formulación de resistencia a carga concentrada en vigas doble T. Así, en efecto, una viga doble T que requiera una mayor resistencia a carga concentrada transversal sólo puede reforzarse incrementando el espesor del alma. Por el contrario, con el nervio de rigidez, el ingeniero puede actuar sobre otras variables de diseño: incrementar la rigidez del nervio manteniendo el espesor del alma, para potenciar el mecanismo de flexión longitudinal del nervio; o bien aproximar rigidizadores, más incluso que la longitud de alma resistente, en cuyo caso limitarán ésta a su separación pero contribuirán a incrementar el valor total de la resistencia, superando una insuficiencia de la vigente formulación ya detectada en diversas investigaciones recientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo tiene como objetivo el desarrollo de un patrón primario para la calibración de sensores de fuerza bajo excitaciones sinusoidales. Con consecuencia de dicho desarrollo se establecerá un método de calibración de sensores de fuerza en condiciones dinámicas que permitirá la caracterización de estos sensores en dichas condiciones y determinar la incertidumbre asociada. Este patrón se basa en la definición directa de fuerza como masa por aceleración. Para ello se carga el sensor con distintas cargas calibradas y se somete a distintas aceleraciones mediante un excitador de vibraciones. Dichas aceleraciones se generan para frecuencias desde 5 Hz a 2400 Hz. La aceleración se mide mediante un vibrómetro láser con trazabilidad a la unidad de longitud (longitud de onda del láser). Al ser una medición completamente dinámica se necesita un sistema de adquisición de datos multicanal para la toma de datos en tiempo real. Este sistema adquiere las señales eléctricas provenientes del vibrómetro láser, del sensor a caracterizar y del acelerómetro para mediciones auxiliares. Se ha dispuesto de cuatro sensores de fuerza para realizar ensayos, un sensor piezoeléctrico y tres sensores resistivos. En este trabajo se han estudiado los factores de influencia y se ha implementado un método de calibración para minimizar los mismos, así como también se han establecido las correcciones a realizar. Para la caracterización dinámica del sensor se ha partido de un modelo de oscilador armónico amortiguado forzado, se ha establecido la metodología para la determinación de sus parámetros de caracterización y se ha estudiado su validez. También se ha realizado una comparación entre los resultados obtenidos para condiciones estáticas y dinámicas. ABSTRACT The aim in the current work is the development of a primary standard for force sensors calibration under sinusoidal excitations. As consequence of this development a method for force sensors calibration under dynamic conditions will be established that will allow these sensors characterization for such conditions and the determination of their associated uncertainty. This standard is based on the direct definition of force as mass multiplied by acceleration. To do so, the sensor is loaded with different calibrated loads and is maintained under different accelerations by means of a vibration shaker. These accelerations are generated with frequencies from 5 Hz up to 2400 Hz. The acceleration is measured by means of a laser vibrometer with traceability to the unit of length (laser wavelength). As the measurement is totally dynamic a multiple channel data acquisition system is required for data acquisition in real time. This system acquires the electrical signals outputs coming from the laser vibrometer, the sensor to be characterised and two accelerometers for additional measurements. Four force sensors, one piezoelectric sensor and three resistive sensors, have been available to perform the tests. During this work the influence factors have been studied and a calibration method to minimise these factors have been implemented as well as the corrections to be performed have been established. As the starting point for the sensor dynamic characterization, a model for a forced damped harmonic oscillator has been used, a method for the characterizing parameters determination has been established and its validity has been studied. A comparison between results for static and dynamic conditions has been performed as well.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis estudia el comportamiento de la región exterior de una capa límite turbulenta sin gradientes de presiones. Se ponen a prueba dos teorías relativamente bien establecidas. La teoría de semejanza para la pared supone que en el caso de haber una pared rugosa, el fluido sólo percibe el cambio en la fricción superficial que causa, y otros efectos secundarios quedarán confinados a una zona pegada a la pared. El consenso actual es que dicha teoría es aproximadamente cierta. En el extremo exterior de la capa límite existe una región producida por la interacción entre las estructuras turbulentas y el flujo irrotacional de la corriente libre llamada interfaz turbulenta/no turbulenta. La mayoría de los resultados al respecto sugieren la presencia de fuerzas de cortadura ligeramente más intensa, lo que la hace distinta al resto del flujo turbulento. Las propiedades de esa región probablemente cambien si la velocidad de crecimiento de la capa límite aumenta, algo que puede conseguirse aumentando la fricción en la pared. La rugosidad y la ingestión de masa están entonces relacionadas, y el comportamiento local de la interfaz turbulenta/no turbulenta puede explicar el motivo por el que las capas límite sobre paredes rugosas no se comportan como en el caso de tener paredes lisas precisamente en la zona exterior. Para estudiar las capas límite a números de Reynolds lo suficientemente elevados, se ha desarrollado un nuevo código de alta resolución para la simulación numérica directa de capas límite turbulentas sin gradiente de presión. Dicho código es capaz de simular capas límite en un intervalo de números de Reynolds entre ReT = 100 — 2000 manteniendo una buena escalabilidad hasta los dos millones de hilos en superordenadores de tipo Blue Gene/Q. Se ha guardado especial atención a la generación de condiciones de contorno a la entrada correctas. Los resultados obtenidos están en concordancia con los resultados previos, tanto en el caso de simulaciones como de experimentos. La interfaz turbulenta/no turbulenta de una capa límite se ha analizado usando un valor umbral del módulo de la vorticidad. Dicho umbral se considera un parámetro para analizar cada superficie obtenida de un contorno del módulo de la vorticidad. Se han encontrado dos regímenes distintos en función del umbral escogido con propiedades opuestas, separados por una transición topológica gradual. Las características geométricas de la zona escalan con o99 cuando u^/isdgg es la unidad de vorticidad. Las propiedades del íluido relativas a la posición del contorno de vorticidad han sido analizados para una serie de umbrales utilizando el campo de distancias esféricas, que puede obtenerse con independencia de la complejidad de la superficie de referencia. Las propiedades del fluido a una distancia dada del inerfaz también dependen del umbral de vorticidad, pero tienen características parecidas con independencia del número de Reynolds. La interacción entre la turbulencia y el flujo no turbulento se restringe a una zona muy fina con un espesor del orden de la escala de Kolmogorov local. Hacia el interior del flujo turbulento las propiedades son indistinguibles del resto de la capa límite. Se ha simulado una capa límite sin gradiente de presiones con una fuerza volumétrica cerca de la pared. La el forzado ha sido diseñado para aumentar la fricción en la pared sin introducir ningún efecto geométrico obvio. La simulación consta de dos dominios, un primer dominio más pequeño y a baja resolución que se encarga de generar condiciones de contorno correctas, y un segundo dominio mayor y a alta resolución donde se aplica el forzado. El estudio de los perfiles y los coeficientes de autocorrelación sugieren que los dos casos, el liso y el forzado, no colapsan más allá de la capa logarítmica por la complejidad geométrica de la zona intermitente, y por el hecho que la distancia a la pared no es una longitud característica. Los efectos causados por la geometría de la zona intermitente pueden evitarse utilizando el interfaz como referencia, y la distancia esférica para el análisis de sus propiedades. Las propiedades condicionadas del flujo escalan con 5QQ y u/uT, las dos únicas escalas contenidas en el modelo de semejanza de pared de Townsend, consistente con estos resultados. ABSTRACT This thesis studies the characteristics of the outer region of zero-pressure-gradient turbulent boundary layers at moderate Reynolds numbers. Two relatively established theories are put to test. The wall similarity theory states that with the presence of roughness, turbulent motion is mostly affected by the additional drag caused by the roughness, and that other secondary effects are restricted to a region very close to the wall. The consensus is that this theory is valid, but only as a first approximation. At the edge of the boundary layer there is a thin layer caused by the interaction between the turbulent eddies and the irroational fluid of the free stream, called turbulent/non-turbulent interface. The bulk of results about this layer suggest the presence of some localized shear, with properties that make it distinguishable from the rest of the turbulent flow. The properties of the interface are likely to change if the rate of spread of the turbulent boundary layer is amplified, an effect that is usually achieved by increasing the drag. Roughness and entrainment are therefore linked, and the local features of the turbulent/non-turbulent interface may explain the reason why rough-wall boundary layers deviate from the wall similarity theory precisely far from the wall. To study boundary layers at a higher Reynolds number, a new high-resolution code for the direct numerical simulation of a zero pressure gradient turbulent boundary layers over a flat plate has been developed. This code is able to simulate a wide range of Reynolds numbers from ReT =100 to 2000 while showing a linear weak scaling up to around two million threads in the BG/Q architecture. Special attention has been paid to the generation of proper inflow boundary conditions. The results are in good agreement with existing numerical and experimental data sets. The turbulent/non-turbulent interface of a boundary layer is analyzed by thresholding the vorticity magnitude field. The value of the threshold is considered a parameter in the analysis of the surfaces obtained from isocontours of the vorticity magnitude. Two different regimes for the surface can be distinguished depending on the threshold, with a gradual topological transition across which its geometrical properties change significantly. The width of the transition scales well with oQg when u^/udgg is used as a unit of vorticity. The properties of the flow relative to the position of the vorticity magnitude isocontour are analyzed within the same range of thresholds, using the ball distance field, which can be obtained regardless of the size of the domain and complexity of the interface. The properties of the flow at a given distance to the interface also depend on the threshold, but they are similar regardless of the Reynolds number. The interaction between the turbulent and the non-turbulent flow occurs in a thin layer with a thickness that scales with the Kolmogorov length. Deeper into the turbulent side, the properties are undistinguishable from the rest of the turbulent flow. A zero-pressure-gradient turbulent boundary layer with a volumetric near-wall forcing has been simulated. The forcing has been designed to increase the wall friction without introducing any obvious geometrical effect. The actual simulation is split in two domains, a smaller one in charge of the generation of correct inflow boundary conditions, and a second and larger one where the forcing is applied. The study of the one-point and twopoint statistics suggest that the forced and the smooth cases do not collapse beyond the logarithmic layer may be caused by the geometrical complexity of the intermittent region, and by the fact that the scaling with the wall-normal coordinate is no longer present. The geometrical effects can be avoided using the turbulent/non-turbulent interface as a reference frame, and the minimum distance respect to it. The conditional analysis of the vorticity field with the alternative reference frame recovers the scaling with 5QQ and v¡uT already present in the logarithmic layer, the only two length-scales allowed if Townsend’s wall similarity hypothesis is valid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El riesgo de caída por deslizamiento en los edificios es un riesgo muy importante ya que supone numerosas muertes, perdida de días laborales y secuelas, así como importantes costes económicos. Se trata de accidentes difíciles de predecir debido al número de factores que intervienen para que se produzcan, muchos de los cuales son difícilmente controlables, como el calzado del usuario o su comportamiento. Para evitar un resbalón es necesario que la fricción del conjunto pavimento/calzado/contaminante supere el coeficiente de fricción requerido para la estabilidad y que depende de la forma de caminar, la longitud del paso, etc. Por ello, es necesario medir la contribución del pavimento al riesgo de deslizamiento y limitarla adecuadamente. A lo largo de la historia reciente se han diseñado y desarrollado multitud de aparatos con la intención de medir esta contribución en la forma de coeficientes de fricción —dinámicos, estáticos, de transición— sin llegar a un acuerdo sobre cuál es el método más apropiado. La reglamentación española de edificación, que ha sufrido un importante cambio recientemente con la adopción de un nuevo código basado en prestaciones, ha sido innovadora en este campo introduciendo por primera vez una medida contrastable de la contribución del pavimento al riesgo de deslizamiento mediante el ensayo del péndulo de fricción en húmedo. Sin embargo, el desacuerdo a nivel europeo sobre un ensayo único y las limitaciones en las normas de ensayo existentes derivadas de esta falta de consenso, han sido la causa de que la solución aportada por el Código Técnico de la Edificación (CTE) se cimentara en normas que no contemplaban todas las modalidades de ensayo. Esto ha generado algunos problemas de aplicación que han afectado fundamentalmente a los pavimentos pulidos, que han visto prácticamente vetada su utilización en los edificios incluso en las zonas donde, por no existir presencia de agua, el riesgo es menor. El objetivo de esta tesis es analizar estos problemas de aplicación, ligados al ensayo del péndulo de fricción, y tratar de resolverlos optimizando el procedimiento de ensayo empleado, modificando sus condiciones, para representar de forma mucho más adecuada el riesgo que se pretende limitar. Para ello se ha estudiado de forma exhaustiva la literatura científica y las normas y reglamentaciones, tanto españolas como extranjeras. Se han detectado los posibles problemas que podría plantear la introducción del ensayo del péndulo de fricción en seco y se ha diseñado una campaña de ensayos, tanto de coeficiente de fricción con el péndulo, como de la rugosidad superficial, para confirmarlos o desecharlos. El análisis de los resultados de la campaña de ensayos ha permitido validar la modalidad de ensayo planteada y proponer una medida complementaria de la rugosidad superficial que resulte útil para facilitar la evaluación de este riesgo no poco importante. Los resultados de esta tesis han permitido desarrollar una modificación del CTE de próxima aparición y un documento de apoyo que ya la adelanta, y con ello, resolver el problema de aplicación del CTE a los pavimentos pulidos. ABSTRACT Slipping accidents in building environments are a serious problem involving numerous fatal accidents, loss of work days, incapacity and great costs. Prediction of such accidents is difficult due to the number of factors involved, many of which are not controllable, like footwear or users behavior. To prevent a slip the coefficient of friction provided by the combination floor-footwear-contaminant must be greater than the required coefficient of friction for stability, that depends on the step length and the walking speed among other factors. It is then necessary to measure the contribution of the floor to the slipping risk so it can be limited to an adequate extent. In the recent history many apparatuses have been developed in order to measure this contribution in the form of friction coefficients —dynamic, static or even transition COFs— but none of them seems to be internationally accepted as sufficiently valid. The Spanish Building Code, which has recently undergone a big change to a performance based code, has been innovative in this area, introducing for the first time a measurement of this contribution by means of the friction pendulum test. However, due to the European disagreement about an unique test for slip resistance, and to the limitations of the European standards derived from it, the Spanish Building Code relies on standards that do not take into account all possible methods. As a consequence, smooth floors have been seriously affected and cannot be installed in almost any place, not even in dry areas where the risk of slipping is much lower. The aim of this research is to analyze these problems associated with the pendulum test and resolve them proposing some changes to the test conditions in order to represent in a proper manner the real risk that is to be considered: the slip in dry conditions. Relevant scientific literature has been studied as well as Spanish and foreign codes and standards. Potential problems of the pendulum test in dry conditions have been detected and an experiment has been designed to confirm or discard them, testing both friction coefficient and surface roughness. The results of the experiment have permitted to validate the pendulum test in dry conditions and to suggest a complementary measurement of the surface roughness to help evaluate the slip resistance of a floor. These results have also permitted to develop an amendment to the building code that will appear soon. In the meanwhile it has been included in a support document issued by the administration to resolve this urgent problem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La clasificación de las semillas de especies olerícolas se realiza principalmente por peso y tamaño, con criterios similares a los aplicados en cereales y leguminosas, en que se asocia positivamente estos atributos físicos con la calidad fisiológica. No obstante lo anterior, en diversas especies de hortalizas la información es escasa y contradictoria al respecto, lo que motiva la realización de la presente investigación. En semillas de tomate (Solanum lycopersicum L.) se determinó el efecto del peso y tamaño sobre la calidad fisiológica expresada como germinación y vigor. Además, se correlacionaron los resultados de las pruebas de evaluación de calidad fisiológica y se describieron variables del crecimiento y desarrollo. Se utilizaron lotes de diferentes variedades de semillas híbridas de cuatro temporadas, producidas en un clima templado cálido con lluvias invernales y estación seca prolongada (32º 54’ y 34° 21´ latitud Sur). Se midió peso y tamaño de semillas, además en dos temporadas se evaluaron las características internas de área y peso de embrión y área de endospermo. Se determinó la calidad de las semillas con la prueba de germinación y según fuera el año de estudio se midió vigor con las pruebas de envejecimiento acelerado, de plantas útiles al trasplante y de plántulas emergidas. Con análisis de imágenes y rayos X se extrajeron datos del tamaño externo e interno de las semillas y plántulas. Los lotes se compararon mediante análisis de varianza y las medias con la prueba de Tukey, la asociación entre dos variables se determinó con correlaciones de Pearson, las variables de peso y tamaño de la semilla y su relación con las pruebas de calidad, se analizaron mediante regresiones múltiples. Se utilizó un nivel de significación de 0,05 de probabilidad. Los resultados indicaron que el tamaño y no el peso de las semillas de tomate, diferenciaron calidad entre lotes en las diversas variedades. La prueba de germinación tuvo una baja sensibilidad para discriminar lotes, además de una escasa correlación con las características físicas de las semillas, cuando hubo asociación, la relación fue débil y negativa. La prueba de vigor de envejecimiento acelerado diferenció lotes y presentó escasa asociación con las características físicas de las semillas. El número de semillas germinadas en la prueba de envejecimiento acelerado se explicó por el efecto del tamaño de las semillas, mientras que las fracciones de descarte se asociaron con el peso de las mismas. La prueba de vigor de plantas útiles al trasplante no discriminó entre lotes. Tuvo una asociación débil con el peso y tamaño de las semillas. El modelo asociado a esta relación explicó con un alto coeficiente de determinación que el peso de la semilla influyó sobre la emergencia temprana, mientras que la relación fue menor y negativa con plantas de mayor desarrollo. La prueba de vigor de plántulas emergidas discriminó lotes de semillas con plántulas de 3 a 5 días después de siembra. Hubo escasa y débil asociación entre esta prueba y las características de peso y tamaño las semillas. El modelo de predicción de plántulas emergidas fue particular en cada temporada, cuando hubo un coeficiente de determinación alto influyó negativamente el peso o tamaño de la semilla. Entre las pruebas de calidad fisiológica evaluadas en semillas de tomate hubo escasas correlaciones significativas. Entre germinación y vigor las correlaciones significativas fueron débiles y sólo se encontraron en algunas temporadas de evaluación. Entre las pruebas de vigor no hubo asociación. En las pruebas de vigor de plantas útiles al trasplante y de plántulas emergidas, los cotiledones alcanzaron el mayor porcentaje de materia seca y se correlacionaron fuertemente con la materia seca total. En la prueba de plántulas emergidas la materia seca de las radículas diferenció parcialmente lotes de semillas al igual que la longitud total y de las radículas. La longitud de la radícula se correlacionó fuertemente con la longitud total de plántulas. ABSTRACT Seed selection for olericultural species is mainly carried out considering weight and size with similar criteria to those applied in cereals and legumes where size and physiological quality are favorably associated. However, information about several species is limited and contradictory regarding the above, leading to the present research. In tomato (Solanum lycopersicum L.) seeds, the effect of weight and size on the physiological quality expressed as germination and vigor was determined. In addition, results of quality evaluation tests were correlated and variables of growth and development were described. Batches of hybrid seeds from four seasons were used. These seeds were produced in a mild warm climate with winter rainfalls and long dry season (32º 54’ and 34° 21´South Latitude). Seed weight and size were determined, additionally internal characteristics such as embryo area and weight as well as endosperm area were evaluated in two seasons. The quality of seeds was established using the germination test and, depending on the year of the study, vigor was measured through accelerated aging tests for plants useful for transplanting and emerged seedlings. Using imaging analysis and X rays, data regarding external and internal size of seeds and seedlings were obtained. Batches were compared through ANOVA and means using Tukey’s test; the association between both variables was determined with Pearson correlations, whereas variables of seed weight and size and their relation to quality tests were analyzed through multiple regressions. A significance level of 0.05 probability was used. Results showed that the size (but not the weight) of tomatoes differentiates quality between batches from several seasons. The germination test was not sensitive enough to discriminate batches in addition to having a limited correlation with the characteristics of seeds, when they were associated, the relation was weak and unfavorable. Vigor test for accelerated aging made the difference between batches and presented low association with physical characteristics of the seeds. The number of germinated seeds in the accelerated aging test was explained by the effect of the seed size, whereas cull fractions were associated with their weight. The vigor test of plants useful for transplanting did not discriminate between batches. The association with seed weight and size was weak. The model associated to this relation explained, with a high coefficient determination, that the seed weight had influence on early emergence, whereas the relation was minor and unfavorable with more developed plants. Vigor test of emerged seedlings discriminated batches of seeds with seedlings of 3 to 5 days after sowing. There was a limited and weak association between this test and the characteristics of seed weight and size. The prediction model for seedlings emerged was particular in each season, when the determination coefficient was high, seed weight and size influenced negatively. Among the physiological quality tests evaluated in tomato seeds, significant correlations were negligible. Between germination and vigor, significant correlations were poor, being only found in some evaluation seasons. There was no association in the vigor tests. In vigor tests for plants useful for transplanting and emerged seedlings, cotyledons reached the highest percentage of dry matter and were strongly correlated with total dry matter. In the test of emerged seedlings, dry matter of radicles partially differentiated batches of seeds as well as total length and radicles. Radicle length was strongly correlated with total seedlings length.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas de imagen por ultrasonidos son hoy una herramienta indispensable en aplicaciones de diagnóstico en medicina y son cada vez más utilizados en aplicaciones industriales en el área de ensayos no destructivos. El array es el elemento primario de estos sistemas y su diseño determina las características de los haces que se pueden construir (forma y tamaño del lóbulo principal, de los lóbulos secundarios y de rejilla, etc.), condicionando la calidad de las imágenes que pueden conseguirse. En arrays regulares la distancia máxima entre elementos se establece en media longitud de onda para evitar la formación de artefactos. Al mismo tiempo, la resolución en la imagen de los objetos presentes en la escena aumenta con el tamaño total de la apertura, por lo que una pequeña mejora en la calidad de la imagen se traduce en un aumento significativo del número de elementos del transductor. Esto tiene, entre otras, las siguientes consecuencias: Problemas de fabricación de los arrays por la gran densidad de conexiones (téngase en cuenta que en aplicaciones típicas de imagen médica, el valor de la longitud de onda es de décimas de milímetro) Baja relación señal/ruido y, en consecuencia, bajo rango dinámico de las señales por el reducido tamaño de los elementos. Complejidad de los equipos que deben manejar un elevado número de canales independientes. Por ejemplo, se necesitarían 10.000 elementos separados λ 2 para una apertura cuadrada de 50 λ. Una forma sencilla para resolver estos problemas existen alternativas que reducen el número de elementos activos de un array pleno, sacrificando hasta cierto punto la calidad de imagen, la energía emitida, el rango dinámico, el contraste, etc. Nosotros planteamos una estrategia diferente, y es desarrollar una metodología de optimización capaz de hallar de forma sistemática configuraciones de arrays de ultrasonido adaptados a aplicaciones específicas. Para realizar dicha labor proponemos el uso de los algoritmos evolutivos para buscar y seleccionar en el espacio de configuraciones de arrays aquellas que mejor se adaptan a los requisitos fijados por cada aplicación. En la memoria se trata el problema de la codificación de las configuraciones de arrays para que puedan ser utilizados como individuos de la población sobre la que van a actuar los algoritmos evolutivos. También se aborda la definición de funciones de idoneidad que permitan realizar comparaciones entre dichas configuraciones de acuerdo con los requisitos y restricciones de cada problema de diseño. Finalmente, se propone emplear el algoritmo multiobjetivo NSGA II como herramienta primaria de optimización y, a continuación, utilizar algoritmos mono-objetivo tipo Simulated Annealing para seleccionar y retinar las soluciones proporcionadas por el NSGA II. Muchas de las funciones de idoneidad que definen las características deseadas del array a diseñar se calculan partir de uno o más patrones de radiación generados por cada solución candidata. La obtención de estos patrones con los métodos habituales de simulación de campo acústico en banda ancha requiere tiempos de cálculo muy grandes que pueden hacer inviable el proceso de optimización con algoritmos evolutivos en la práctica. Como solución, se propone un método de cálculo en banda estrecha que reduce en, al menos, un orden de magnitud el tiempo de cálculo necesario Finalmente se presentan una serie de ejemplos, con arrays lineales y bidimensionales, para validar la metodología de diseño propuesta comparando experimentalmente las características reales de los diseños construidos con las predicciones del método de optimización. ABSTRACT Currently, the ultrasound imaging system is one of the powerful tools in medical diagnostic and non-destructive testing for industrial applications. Ultrasonic arrays design determines the beam characteristics (main and secondary lobes, beam pattern, etc...) which assist to enhance the image resolution. The maximum distance between the elements of the array should be the half of the wavelength to avoid the formation of grating lobes. At the same time, the image resolution of the target in the region of interest increases with the aperture size. Consequently, the larger number of elements in arrays assures the better image quality but this improvement contains the following drawbacks: Difficulties in the arrays manufacturing due to the large connection density. Low noise to signal ratio. Complexity of the ultrasonic system to handle large number of channels. The easiest way to resolve these issues is to reduce the number of active elements in full arrays, but on the other hand the image quality, dynamic range, contrast, etc, are compromised by this solutions In this thesis, an optimization methodology able to find ultrasound array configurations adapted for specific applications is presented. The evolutionary algorithms are used to obtain the ideal arrays among the existing configurations. This work addressed problems such as: the codification of ultrasound arrays to be interpreted as individuals in the evolutionary algorithm population and the fitness function and constraints, which will assess the behaviour of individuals. Therefore, it is proposed to use the multi-objective algorithm NSGA-II as a primary optimization tool, and then use the mono-objective Simulated Annealing algorithm to select and refine the solutions provided by the NSGA I I . The acoustic field is calculated many times for each individual and in every generation for every fitness functions. An acoustic narrow band field simulator, where the number of operations is reduced, this ensures a quick calculation of the acoustic field to reduce the expensive computing time required by these functions we have employed. Finally a set of examples are presented in order to validate our proposed design methodology, using linear and bidimensional arrays where the actual characteristics of the design are compared with the predictions of the optimization methodology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente la optimization de la calidad de experiencia (Quality of Experience- QoE) de HTTP Adaptive Streaming (HAS) de video recibe una atención creciente. Este incremento de interés proviene fundamentalmente de las carencias de las soluciones actuales HAS, que, al no ser QoE-driven, no incluyen la percepción de la calidad de los usuarios finales como una parte integral de la lógica de adaptación. Por lo tanto, la obtención de información de referencia fiable en QoE en HAS presenta retos importantes, ya que las metodologías de evaluación subjetiva de la calidad de vídeo propuestas en las normas actuales no son adecuadas para tratar con la variación temporal de la calidad que es consustancial de HAS. Esta tesis investiga la influencia de la adaptación dinámica en la calidad de la transmisión de vídeo considerando métodos de evaluación subjetiva. Tras un estudio exhaustivo del estado del arte en la evaluación subjetiva de QoE en HAS, se han resaltado los retos asociados y las líneas de investigación abiertas. Como resultado, se han seleccionado dos líneas principales de investigación: el análisis del impacto en la QoE de los parámetros de las técnicas de adaptación y la investigación de las metodologías de prueba subjetiva adecuada para evaluación de QoE en HAS. Se han llevado a cabo un conjunto de experimentos de laboratorio para investigar las cuestiones planteadas mediante la utilización de diferentes metodologáas para pruebas subjetivas. El análisis estadístico muestra que no son robustas todas las suposiciones y reivindicaciones de las referencias analizadas, en particular en lo que respecta al impacto en la QoE de la frecuencia de las variaciones de calidad, de las adaptaciones suaves o abruptas y de las oscilaciones de calidad. Por otra parte, nuestros resultados confirman la influencia de otros parámetros, como la longitud de los segmentos de vídeo y la amplitud de las oscilaciones de calidad. Los resultados también muestran que tomar en consideración las características objetivas de los contenidos puede ser beneficioso para la mejora de la QoE en HAS. Además, todos los resultados han sido validados mediante extensos análisis experimentales que han incluido estudio tanto en otros laboratorios como en crowdsourcing Por último, sobre los aspectos metodológicos de las pruebas subjetivas de QoE, se ha realizado la comparación entre los resultados experimentales obtenidos a partir de un método estandarizado basado en estímulos cortos (ACR) y un método semi continuo (desarrollado para la evaluación de secuencias prolongadas de vídeo). A pesar de algunas diferencias, el resultado de los análisis estadísticos no muestra ningún efecto significativo de la metodología de prueba. Asimismo, aunque se percibe la influencia de la presencia de audio en la evaluación de degradaciones del vídeo, no se han encontrado efectos estadísticamente significativos de dicha presencia. A partir de la ausencia de influencia del método de prueba y de la presencia de audio, se ha realizado un análisis adicional sobre el impacto de realizar comparaciones estadísticas múltiples en niveles estadísticos de importancia que aumentan la probabilidad de los errores de tipo-I (falsos positivos). Nuestros resultados muestran que, para obtener un efectos sólido en el análisis estadístico de los resultados subjetivos, es necesario aumentar el número de sujetos de las pruebas claramente por encima de los tamaños de muestras propuestos por las normas y recomendaciones actuales. ABSTRACT Optimizing the Quality of Experience (QoE) of HTTP adaptive video streaming (HAS) is receiving increasing attention nowadays. The growth of interest is mainly caused by the fact that current HAS solutions are not QoE-driven, i.e. end-user quality perception is not integral part of the adaptation logic. However, obtaining the necessary reliable ground truths on HAS QoE faces substantial challenges, since the subjective video quality assessment methodologies as proposed by current standards are not well-suited for dealing with the time-varying quality properties that are characteristic for HAS. This thesis investigates the influence of dynamic quality adaptation on the QoE of streaming video by means of subjective evaluation approaches. Based on a comprehensive survey of related work on subjective HAS QoE assessment, the related challenges and open research questions are highlighted and discussed. As a result, two main research directions are selected for further investigation: analysis of the QoE impact of different technical adaptation parameters, and investigation of testing methodologies suitable for HAS QoE evaluation. In order to investigate related research issues and questions, a set of laboratory experiments have been conducted using different subjective testing methodologies. Our statistical analysis demonstrates that not all assumptions and claims reported in the literature are robust, particularly as regards the QoE impact of switching frequency, smooth vs. abrupt switching, and quality oscillation. On the other hand, our results confirm the influence of some other parameters such as chunk length and switching amplitude on perceived quality. We also show that taking the objective characteristics of the content into account can be beneficial to improve the adaptation viewing experience. In addition, all aforementioned findings are validated by means of an extensive cross-experimental analysis that involves external laboratory and crowdsourcing studies. Finally, to address the methodological aspects of subjective QoE testing, a comparison between the experimental results obtained from a (short stimuli-based) ACR standardized method and a semi-continuous method (developed for assessment of long video sequences) has been performed. In spite of observation of some differences, the result of statistical analysis does not show any significant effect of testing methodology. Similarly, although the influence of audio presence on evaluation of video-related degradations is perceived, no statistically significant effect of audio presence could be found. Motivating by this finding (no effect of testing method and audio presence), a subsequent analysis has been performed investigating the impact of performing multiple statistical comparisons on statistical levels of significance which increase the likelihood of Type-I errors (false positives). Our results show that in order to obtain a strong effect from the statistical analysis of the subjective results, it is necessary to increase the number of test subjects well beyond the sample sizes proposed by current quality assessment standards and recommendations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto es un estudio sobre las propiedades físicas y mecánicas de un conjunto de muestras de ramas de Fagus sylvatica L. recogidas en el Hayedo de Montejo de la Sierra, en Madrid. El Hayedo de Montejo hoy en día es muy conocido en Madrid, como también a nivel nacional e internacional. El hayedo alberga cientos de hayas entre las que se encuentran algunas hayas centenarias y singulares, lo que no es habitual en latitudes tan meridionales con las de la provincia de Madrid. Sin embargo, en las últimas décadas las hayas han sufrido un decaimiento en su estado provocándose en ellas roturas e incluso la muerte. Por ello se han llevado y se están llevando a cabo numerosos estudios que permitan analizar la situación para mantener y mejorar el estado de conservación del hayedo. En este trabajo se han recogido una muestra de 17 ramas sanas y representativas del hayedo. De estas ramas se han obtenido sus dimensiones, se han descrito visualmente identificando sus particularidades y defectos. Se han clasificado en dos grupos, según diámetro y longitud de las ramas. Se han realizado ensayos no destructivos (NDT) para obtener variables de medición y sus relaciones con las propiedades físicas y mecánicas. Se han realizado mediciones con penetrómetro (Pilodyn) para obtener su relación con la densidad de las ramas. Se han realizado mediciones de velocidad de propagación de una onda (Microsecond Timer) para obtener el módulo de elasticidad dinámico con el que estimar el módulo de elasticidad y la resistencia. Se ha realizado un ensayo a flexión para obtener el módulo de elasticidad (MOE) y resistencia (MOR). Entre los resultado se puede destacar que las ramas más gruesas tienen un MOE a flexión y MOR más bajo y un MOE dinámico más alto que las ramas más delgadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el proceso de cálculo de redes de tuberías se maneja un conjunto de variables con unas características muy peculiares, ya que son discretas y estandarizadas. Por lo tanto su evolución se produce por escalones (la presión nominal, el diámetro y el costo de los tubos). Por otro lado la presión de diseño de la red es una función directa de la presión de cabecera. En el proceso de optimización mediante programación dinámica la presión de cabecera se va reduciendo gradualmente en cada secuencia del proceso, haciendo que evolucione a la par la presión de diseño, lo que genera a su vez saltos discriminados en la presión nominal de los tramos, y con ello en su costo y en su gradiente de cambio. En esta tesis doctoral se analiza si estos cambios discriminados que se producen en el gradiente de cambio de algunos tramos en el curso de una secuencia, ocasionados por la evolución de la presión de cabecera de la red, generan interferencias que alteran el proceso secuencial de la programación dinámica. La modificación del gradiente de cambio durante el transcurso de una secuencia se conoce con el nombre de mutación, la cual puede ser activa cuando involucra a un tramo optimo modificando las condiciones de la transacción o pasiva si no crea afección alguna. En el análisis realizado se distingue entre la mutación del gradiente de cambio de los tramos óptimos (que puede generarse exclusivamente en el conjunto de los trayectos que los albergan), y entre los efectos que el cambio de timbraje produce en el resto de los tramos de la red (incluso los situados aguas abajo de los nudos con holgura de presión nula) sobre el mecanismo iterativo, estudiando la compatibilidad de este fenómeno con el principio de óptimo de Bellman. En el proceso de investigación llevado a cabo se destaca la fortaleza que da al proceso secuencial del método Granados el hecho de que el gradiente de cambio siempre sea creciente en el avance hacia el óptimo, es decir que el costo marginal de la reducción de las pérdidas de carga de la red que se consigue en una iteración siempre sea más caro que el de la iteración precedente. Asimismo, en el estudio realizado se revisan los condicionantes impuestos al proceso de optimización, incluyendo algunos que hasta ahora no se han tenido en cuenta en los estudios de investigación, pero que están totalmente integrados en la ingeniería práctica, como es la disposición telescópica de las redes (reordenación de los diámetros de mayor a menor de cabeza a cola de la red), y la disposición de un único diámetro por tramo, en lugar de que estén compartidos por dos diámetros contiguos (con sus salvedades en caso de tramos de gran longitud, o en otras situaciones muy específicas). Finalmente se incluye un capítulo con las conclusiones, aportaciones y recomendaciones, las cuales se consideran de gran utilidad para la ingeniería práctica, entre las que se destaca la perfección del método secuencial, la escasa transcendencia de las mutaciones del gradiente de cambio y la forma en que pueden obviarse, la inocuidad de las mutaciones pasivas y el cumplimiento del principio de Bellman en todo el proceso de optimización. The sizing process of a water distribution network is based on several variables, being some of them special, as they are discrete and their values are standardized: pipe pressure rating, pipe diameter and pipe cost. On another note, the sizing process is directly related with the pressure at the network head. Given that during the optimization by means of the Granados’ Method (based on dynamic programming) the pressure at the network head is being gradually reduced, a jump from one pipe pressure rating to another may arise during the sequential process, leading to changes on the pipe cost and on the gradient change (unitary cost for reducing the head losses). This chain of changes may, in turn, affect the sequential process diverting it from an optimal policies path. This thesis analyses how the abovementioned alterations could influence the results of the dynamic programming algorithm, that is to say the compatibility with the Bellman’s Principle of Optimality, which states that the sequence has to follow a route of optimal policies, and that past decisions should not influence the remaining ones. The modification of the gradient change is known as mutation. Mutations are active when they affect the optimal link (the one which was selected to be changed during iteration) or passive when they do not alter the selection of the optimal link. The thesis analysed the potential mutations processes along the network, both on the optimal paths and also on the rest of the network, and its influence on the final results. Moreover, the investigation analysed the practical restrictions of the sizing process that are fully integrated in the applied engineering, but not always taken into account by the optimization tools. As the telescopic distribution of the diameters (i.e. larger diameters are placed at the network head) and the use of a unique diameter per link (with the exception of very large links, where two consecutive diameters may be placed). Conclusions regarding robustness of the dynamic programming algorithm are given. The sequence of the Granados Method is quite robust and it has been shown capable to auto-correct the mutations that could arise during the optimization process, and to achieve an optimal distribution even when the Bellman’s Principle of Optimality is not fully accomplished. The fact that the gradient change is always increasing during the optimization (that is to say, the marginal cost of reducing head losses is always increasing), provides robustness to the algorithm, as looping are avoided in the optimization sequence. Additionally, insight into the causes of the mutation process is provided and practical rules to avoid it are given, improving the current definition and utilization of the Granados’ Method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

José Antonio Martín Pereda, vicerrector de Investigación de la Universidad Politécnica de Madrid en 1983, nos cuenta cómo en 1957 el norteamericano Townes y los soviéticos Basov y Prokorov desarrollaron, al mismo tiempo, el primer máser, apareciendo posteriormente el citado láser de rubí, compuesto por dos espejos enfrentados y formando una cavidad óptica, en cuyo centro hay una varilla de rubí, que es irradiada muy intensamente por una radiación externa. El resultado es la obtención de un haz de luz de una única longitud de onda; esto es, monocolor, absolutamente direccional y paraleló, que puede propagarse indefinidamente si no hay un medio que lo absorba. Al láser de rubí siguió el de helio-neón. Desde el principio una de las más claras aplicaciones del rayo láser fueron las comunicaciones ópticas y, posteriormente, la medicina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las playas sustentadas por medio de un pie sumergido son una atractiva alternativa de diseño de regeneración de playas especialmente cuando las condiciones física del emplazamiento o las características de la arena nativa y de préstamo producen perfiles de alimentación que no se intersectan. La observación y propuesta de este tipo de solución data de los años 1960’s, así como la experiencia internacional en la construcción de este tipo de playas. Sin embargo, a pesar de su utilización y los estudios en campo y laboratorio, no se dispone de criterios ingenieriles que apoyen el diseño de las mismas. Esta tesis consiste en un análisis experimental del perfil de playas sustentadas en un pie sumergido (o colgadas) que se concreta en una propuesta de directrices de diseño general que permiten estimar la ubicación y características geométricas del pie sumergido frente a un oleaje y material que constituye la playa determinados. En la tesis se describe el experimento bidimensional realizado en el modelo físico de fondo móvil, donde se combinan cinco tipos de oleaje con tres configuraciones del pie sumergido (“Sin estructura”, configuración baja o “Estructura 1” y configuración alta o “Estructura 2”), se presentan los resultados obtenidos y se realiza una discusión detallada de las implicaciones de los resultados desde el punto de vista hidrodinámico utilizando monomios adimensionales. Se ha realizado un análisis detallado del estado del arte sobre playas colgadas, presentando el concepto y las experiencias de realizaciones en distintos países. Se ha realizado una cuidadosa revisión de la literatura publicada sobre estudios experimentales de playas colgadas, modelos teóricos y otras cuestiones auxiliares, necesarias para la formulación de la metodología de la tesis. El estudio realizado se ha estructurado en dos fases. En la primera fase se ha realizado una experimentación en un modelo físico de fondo móvil construido en las instalaciones del Centro de Estudios de Puertos y Costas (CEPYC) del Centro de Estudios y Experimentación de Obras Públicas (CEDEX), consistente en un canal de 36 m de longitud, 3 m de anchura y 1.5 m de altura, provisto de un generador de oleaje de tipo pistón. Se ha diseñado una campaña de 15 ensayos, que se obtienen sometiendo a cinco tipos de oleaje tres configuraciones distintas de playa colgada. En los ensayos se ha medido el perfil de playa en distintos instantes hasta llegar al equilibrio, determinando a partir de esos datos el retroceso de la línea de costa y el volumen de sedimentos perdido. El tiempo total efectivo de ensayo asciende a casi 650 horas, y el número de perfiles de evolución de playa obtenidos totaliza 229. En la segunda fase se ha abordado el análisis de los resultados obtenidos con la finalidad de comprender el fenómeno, identificar las variables de las que depende y proponer unas directrices ingenieriles de diseño. Se ha estudiado el efecto de la altura de ola, del periodo del oleaje, del francobordo adimensional y del parámetro de Dean, constatándose la dificultad de comprensión del funcionamiento de estas obras ya que pueden ser beneficiosas, perjudiciales o inocuas según los casos. También se ha estudiado la respuesta del perfil de playa en función de otros monomios adimensionales, tales como el número de Reynolds o el de Froude. En el análisis se ha elegido el monomio “plunger” como el más significativo, encontrando relaciones de éste con el peralte de oleaje, la anchura de coronación adimensional, la altura del pie de playa adimensional y el parámetro de Dean. Finalmente, se propone un método de diseño de cuatro pasos que permite realizar un primer encaje del diseño funcional de la playa sustentada frente a un oleaje de características determinadas. Las contribuciones más significativas desde el punto de vista científico son: - La obtención del juego de resultados experimentales. - La caracterización del comportamiento de las playas sustentadas. - Las relaciones propuestas entre el monomio plunger y las distintas variables explicativas seleccionadas, que permiten predecir el comportamiento de la obra. - El método de diseño propuesto, en cuatro pasos, para este tipo de esquemas de defensa de costas. Perched beaches are an attractive beach nourishment design alternative especially when either the site conditions or the characteristics of both the native and the borrow sand lead to a non-intersecting profile The observation and suggestion of the use of this type of coastal defence scheme dates back to the 1960’s, as well as the international experience in the construction of this type of beaches. However, in spite of its use and the field and laboratory studies performed to-date, no design engineering guidance is available to support its design. This dissertation is based on the experimental work performed on a movable bed physical model and the use of dimensionless parameters in analyzing the results to provide general functional design guidance that allow the designer, at a particular stretch of coast - to estimate the location and geometric characteristics of the submerged sill as well as to estimate the suitable sand size to be used in the nourishment. This dissertation consists on an experimental analysis of perched beaches by means of a submerged sill, leading to the proposal of general design guidance that allows to estimate the location and geometric characteristics of the submerged sill when facing a wave condition and for a given beach material. The experimental work performed on a bi-dimensional movable bed physical model, where five types of wave conditions are combined with three configurations of the submerged sill (“No structure”, low structure or “Structure 1”, and high structure or “Structure 2”) is described, results are presented, and a detailed discussion of the results - from the hydrodynamic point of view – of the implications of the results by using dimensionless parameters is carried out. A detailed state of the art analysis about perched beaches has been performed, presenting the “perched beach concept” and the case studies of different countries. Besides, a careful revision of the literature about experimental studies on perched beaches, theoretical models, and other topics deemed necessary to formulate the methodology of this work has been completed. The study has been divided into two phases. Within the first phase, experiments on a movable-bed physical model have been developed. The physical model has been built in the Centro de Estudios de Puertos y Costas (CEPYC) facilities, Centro de Estudios y Experimentación de Obras Públicas (CEDEX). The wave flume is 36 m long, 3 m wide and 1.5 m high, and has a piston-type regular wave generator available. The test plan consisted of 15 tests resulting from five wave conditions attacking three different configurations of the perched beach. During the development of the tests, the beach profile has been surveyed at different intervals until equilibrium has been reached according to these measurements. Retreat of the shoreline and relative loss of sediment in volume have been obtained from the measurements. The total effective test time reaches nearly 650 hours, whereas the total number of beach evolution profiles measured amounts to 229. On the second phase, attention is focused on the analysis of results with the aim of understanding the phenomenon, identifying the governing variables and proposing engineering design guidelines. The effect of the wave height, the wave period, the dimensionless freeboard and of the Dean parameter have been analyzed. It has been pointed out the difficulty in understanding the way perched beaches work since they turned out to be beneficial, neutral or harmful according to wave conditions and structure configuration. Besides, the beach profile response as a function of other dimensionless parameters, such as Reynolds number or Froude number, has been studied. In this analysis, the “plunger” parameter has been selected as the most representative, and relationships between the plunger parameter and the wave steepness, the dimensionless crest width, the dimensionless crest height, and the Dean parameter have been identified. Finally, an engineering 4-step design method has been proposed, that allows for the preliminary functional design of the perched beach for a given wave condition. The most relevant contributions from the scientific point of view have been: - The acquisition of a consistent set of experimental results. - The characterization of the behavior of perched beaches. - The proposed relationships between the plunger parameter and the different explanatory variables selected, that allow for the prediction of the beach behavior. - The proposed design method, four-step method, for this type of coastal defense schemes.