60 resultados para Estimación
Resumo:
Desarrollos recientes para encajar dentro de un marco variacional la llamada Formulación Libre sugieren la posibilidad de introducir un nuevo tipo de estimador de error para cálculos por elementos finitos. Este estimador se basa en una diferencia entre ciertos funcionales multicampo, que toman el mismo valor para la solución exacta del problema. En el presente artículo, dividido en dos partes, se introduce la formulación del estimador para problemas de elasticidad y de flexión de placas según las hipótesis clásicas de Kirchhoff. Se presentan también algunos ejemplos para dar idea de los comportamientos numéricos observados.
Resumo:
La investigación que se resume en este artículo, resultante de diversos trabajos realizados en el CEDEX [10, 12], tiene por objeto contrastar las formulaciones desarrolladas por diferentes autores en materia de rebases en distintas tipologías de diques de abrigo. Para ello, se realizó en primer lugar la recopilación y el análisis de las formulaciones existentes para estimar la tasa de rebase sobre diques en talud y verticales. Posteriormente, se llevó a cabo el contraste de dichas formulaciones con los resultados obtenidos en dos ensayos realizados en el Centro de Estudios de Puertos y Costas del CEDEX, en Cabo Prioriño, Ferrol y en la alineación tercera de Melilla. The research that is summarized in this article, resultant of several studies carried out in the CEDEX [10, 12], is focused in the existing methods to estimate overtopping rates developed by different authors. For that, the summary was carry out firstly we collected and analyzed the existing formulae, particularly for rubble mound and vertical breakwaters. These formulations was compared with the results obtained in two hydraulic model tests of the Hydraulic Research Laboratory (the Center of Studies of Ports and Coasts of the CEDEX, Madrid, Spain). Keywords: overtopping rates, rubble mound breakwater, vertical breakwater, crown wall, run-up.
Resumo:
Teniendo como punto de partida la Convención de la Diversidad biológica de 1992, desde la segunda mitad del siglo XX las perspectivas en política y gestión medioambiental han dado un giro sin precedentes. Variables intangibles, difíciles de medir, como es la biodiversidad, son cada vez más importantes para la sociedad. En consecuencia, enmarcado en políticas y requerimientos internacionales, desde el Tercer Inventario Forestal Nacional (IFN-3) se está aplicando una nueva metodología en continuo desarrollo que trata de estimar nuevas variables relacionadas con la biodiversidad. El objetivo más importante es poder analizar mediante estos nuevos indicadores la evolución del estado de la biodiversidad forestal de nuestros bosques a lo largo de los sucesivos IFN. Para llevar a cabo este reto, la toma de datos de campo en el inventario se centra principalmente en indicadores relativos a la composición florística y a la estructura de las masas forestales. En este artículo se describe la evolución y el desarrollo de la metodología llevada a cabo hasta el momento para la estimación de la biodiversidad forestal en el IFN. Además, se detallan los resultados derivados de su aplicación en las formaciones forestales más representativas de Galicia. Finalmente, se exponen los nuevos indicadores relacionados con la biodiversidad forestal en los que se está investigando, así como nuevas perspectivas de análisis.
Resumo:
El presente trabajo tiene como objetivo establecer algunos factores de corrección que afectan el resultado de la resistencia de las probetas testigo a fin de pronosticar la resistencia a compresión in situ. Para el cumplimiento de dicho objetivo se han fabricado 30 bloques de 500x500x1000 mm en Hormigón Autocompactante (HAC) cubriendo un amplio rango de resistencias de 20 MPa a 80 MPa. De estos bloques se han extraído 360 probetas testigo con variaciones en el diámetro (50 mm, 75 mm y 100 mm), en la dirección de extracción (horizontal y vertical) y en la condición de humedad secas y húmedas). Para el pronóstico de la resistencia in situ se ha considerado el principio de superposición de efectos establecido en normas como la ACI-214.4R-10. En este sentido, para las condiciones del ensayo, se han cuantificado mediante factores de corrección los efectos generados por el diámetro y la condición de humedad del testigo en el momento del ensayo y por el nivel resistente del hormigón. Además, se ha valorado de manera conjunta la influencia de las variables intrínsecas de las probetas testigo, tales como, microfisuración, efecto pared, condiciones de contorno, etc. Los resultados indicaron que algunos factores de corrección utilizados para pronosticar la resistencia in situ, inciden de forma muy diferente en los HAC con respecto a los hormigones vibrados tradicionalmente (HVT).
Resumo:
En este trabajo se muestran los resultados de la aplicación de la metodología bootstrap a datos de 3369 encuestas realizadas en 2009 a nivel nacional entre conductores de furgonetas, para obtener datos de movilidad interurbana y total, según edad de los vehículos, uso, conductores y otras características de este tipo de vehículo. Se obtienen estimaciones puntuales e intervalos de confianza para la movilidad total de furgonetas, así como para los cuatro tipos de furgonetas según la clasificación realizada en el proyecto de referencia. Se comparan los resultados obtenidos con estimaciones alternativas realizadas con otras fuentes de datos para el mismo colectivo (encuestas realizadas en inspecciones en carretera realizadas por la ATGC de la DGT e inspecciones en ITV) y datos publicados por fuentes oficiales. Estos resultados de movilidad (en término de vehículo-kilómetro) se usarán para la estimación de ratios de accidentalidad en un estudio comparado con otros colectivos de vehículos.
Resumo:
El objetivo de la presentación es dar a conocer los últimos trabajos del Grupo de Investigación sobre últimos trabajos del Grupo de Investigación sobre Control Borroso. • Obtención de modelos precisos de sistemas no lineales basados en sistemas borrosos – Mamdani – Takagi-Sugeno – Linealización • Generalización del método propuesto por T-S • Identificación iterativa basada en el Filtro de Kalman • Sistemas de control basados en el modelo TS obtenido – LQR
Resumo:
La directiva europea sobre gestión de la seguridad de las infraestructuras viarias establece el requerimiento de implantar un procedimiento de clasificación de los tramos de la red en función del ahorro potencial en costes derivados de los accidentes en las carreteras que forman parte de la Red Transeuropea. El potencial de mejora de la seguridad debe reflejar la reducción en coste de accidentalidad que podría alcanzarse a través de medidas de mejora de la infraestructura y puede estimarse como la diferencia entre el coste por km de la accidentalidad del tramo durante el período considerado y el coste esperado para carreteras del mismo tipo que dispongan de las condiciones de seguridad alcanzables mediante actuaciones preventivas de mejora de las infraestructuras. En la ponencia se describe un procedimiento para mejorar la precisión de la estimación del potencial de reducción de la accidentalidad en los tramos de una red de carreteras a partir de la calibración de modelos lineales generalizados de estimación de la frecuencia de accidentes y de su combinación con la información registrada de accidentalidad aplicando un procedimiento bayesiano empírico.
Resumo:
En este trabajo se realiza una propuesta de cálculo de riesgo sísmico en términos de daño físico para un escenario realista en Puerto Prínicpe (Haití). Los resultados del modelo propuesto se calibran con datos del sismo de enero de 2010.
Resumo:
Este trabajo estudia la aportación que los métodos de agregación de juicios de expertos pueden realizar en el cálculo de la peligrosidad sísmica de emplazamientos. Se han realizado cálculos en dos emplazamientos de la Península Ibérica: Mugardos (La Coruña) y Cofrentes (Valencia) que están sometidos a regímenes tectónicos distintos y que, además, alojan instalaciones industriales de gran responsabilidad. Las zonas de estudio, de 320 Km de radio, son independientes. Se ha aplicado un planteamiento probabilista a la estimación de la tasa anual de superación de valores de la aceleración horizontal de pico y se ha utilizado el Método de Montecarlo para incorporar a los resultados la incertidumbre presente en los datos relativos a la definición de cada fuente sismogenética y de su sismicidad. Los cálculos se han operado mediante un programa de ordenador, desarrollado para este trabajo, que utiliza la metodología propuesta por el Senior Seismic Hazard Analysis Commitee (1997) para la NRC. La primera conclusión de los resultados ha sido que la Atenuación es la fuente principal de incertidumbre en las estimaciones de peligrosidad en ambos casos. Dada la dificultad de completar los datos históricos disponibles de esta variable se ha estudiado el comportamiento de cuatro métodos matemáticos de agregación de juicios de expertos a la hora de estimar una ley de atenuación en un emplazamiento. Los datos de partida se han obtenido del Catálogo de Isosistas del IGN. Los sismos utilizados como variables raíz se han elegido con el criterio de cubrir uniformemente la serie histórica disponible y los valores de magnitud observados. Se ha asignado un panel de expertos particular a cada uno de los dos emplazamientos y se han aplicado a sus juicios los métodos de Cooke, equipesos, Apostolakis_Mosleh y Morris. Sus propuestas se han comparado con los datos reales para juzgar su eficacia y su facilidad de operación. A partir de los resultados se ha concluido que el método de Cooke ha mostrado el comportamiento más eficiente y robusto para ambos emplazamientos. Este método, además, ha permitido identificar, razonadamente, a aquellos expertos que no deberían haberse introducido en un panel. The present work analyses the possible contribution of the mathematical methods of aggregation in the assessment of Seismic Hazzard. Two sites, in the Iberian Peninsula, have been considered: Mugardos ( La Coruña) and Cofrentes (Valencia).Both of them are subjected to different tectonic regimes an both accommodate high value industrial plants. Their areas of concern, with radius of 320 Km, are not overlapping. A probabilistic approach has been applied in the assessment the annual probability of exceedence of the horizontal peak acceleration. The Montecarlo Method has allowed to transfer the uncertainty in the models and parameters to the final results. A computer program has been developed for this purpose. The methodology proposed by the Senior Seismic Analysis Committee (1997) for the NRC has been considered. Attenuation in Ground motion has been proved to be the main source of uncertainty in seismic hazard for both sites. Taking into account the difficulties to complete existing historical data in this subject the performance of four mathematical methods of aggregation has been studied. Original data have been obtained from the catalogs of the Spanish National Institute of Geography. The seismic events considered were chosen to cover evenly the historical records and the observed values of magnitude. A panel of experts have been applied to each site and four aggregation methods have been developed : equal weights, Cooke, Apostolakis-Mosleh and Morris The four proposals have been compaired with the actual data to judge their performance and ease of application. The results have shown that the Method of Cooke have proved the most efficient and robust for both sites. This method, besides, allow the reasoned identification of those experts who should be rejected from the panel
Resumo:
El seguro de sequía en pastos en España se basa en la evaluación de un índice de vegetación sin la estimación de la producción de biomasa del pasto. El objetivo de este trabajo es estimar la producción de biomasa de los pastos mediante el índice de vegetación de la diferencia normalizada (NDVI). Desde 2010 a 2012 se realizó un seguimiento del pasto en dehesas de El Cubo de Don Sancho (Salamanca), Trujillo (Cáceres) y Pozoblanco (Córdoba). Se midió mensualmente la producción de biomasa del pasto y el NDVI obtenido del satélite DEIMOS-1 con una resolución de 22 m por 22 m. Con los datos de 2010 y 2011 se estableció la función de producción de biomasa del pasto (fresco y seco) a partir del NDVI, con un coeficiente de correlación r2 de 0,975 altamente significativo para el pasto fresco. Los datos obtenidos en 2012 se han utilizado para validar la función de producción. La validación de la función de producción entre los valores observados y simulados ha mostrado un coeficiente de correlación r2 de 0,734. Estos resultados sugieren que el NDVI puede ser un buen estimador de la producción de biomasa de los pastos en dehesas.
Resumo:
El objetivo final de las investigaciones recogidas en esta tesis doctoral es la estimación del volumen de hielo total de los ms de 1600 glaciares de Svalbard, en el Ártico, y, con ello, su contribución potencial a la subida del nivel medio del mar en un escenario de calentamiento global. Los cálculos más exactos del volumen de un glaciar se efectúan a partir de medidas del espesor de hielo obtenidas con georradar. Sin embargo, estas medidas no son viables para conjuntos grandes de glaciares, debido al coste, dificultades logísticas y tiempo requerido por ellas, especialmente en las regiones polares o de montaña. Frente a ello, la determinación de áreas de glaciares a partir de imágenes de satélite sí es viable a escalas global y regional, por lo que las relaciones de escala volumen-área constituyen el mecanismo más adecuado para las estimaciones de volúmenes globales y regionales, como las realizadas para Svalbard en esta tesis. Como parte del trabajo de tesis, hemos elaborado un inventario de los glaciares de Svalbard en los que se han efectuado radioecosondeos, y hemos realizado los cálculos del volumen de hielo de más de 80 cuencas glaciares de Svalbard a partir de datos de georradar. Estos volúmenes han sido utilizados para calibrar las relaciones volumen-área desarrolladas en la tesis. Los datos de georradar han sido obtenidos en diversas campañas llevadas a cabo por grupos de investigación internacionales, gran parte de ellas lideradas por el Grupo de Simulación Numérica en Ciencias e Ingeniería de la Universidad Politécnica de Madrid, del que forman parte la doctoranda y los directores de tesis. Además, se ha desarrollado una metodología para la estimación del error en el cálculo de volumen, que aporta una novedosa técnica de cálculo del error de interpolación para conjuntos de datos del tipo de los obtenidos con perfiles de georradar, que presentan distribuciones espaciales con unos patrones muy característicos pero con una densidad de datos muy irregular. Hemos obtenido en este trabajo de tesis relaciones de escala específicas para los glaciares de Svalbard, explorando la sensibilidad de los parámetros a diferentes morfologías glaciares, e incorporando nuevas variables. En particular, hemos efectuado experimentos orientados a verificar si las relaciones de escala obtenidas caracterizando los glaciares individuales por su tamaño, pendiente o forma implican diferencias significativas en el volumen total estimado para los glaciares de Svalbard, y si esta partición implica algún patrón significativo en los parámetros de las relaciones de escala. Nuestros resultados indican que, para un valor constante del factor multiplicativo de la relacin de escala, el exponente que afecta al área en la relación volumen-área decrece según aumentan la pendiente y el factor de forma, mientras que las clasificaciones basadas en tamaño no muestran un patrón significativo. Esto significa que los glaciares con mayores pendientes y de tipo circo son menos sensibles a los cambios de área. Además, los volúmenes de la población total de los glaciares de Svalbard calculados con fraccionamiento en grupos por tamaño y pendiente son un 1-4% menores que los obtenidas usando la totalidad de glaciares sin fraccionamiento en grupos, mientras que los volúmenes calculados fraccionando por forma son un 3-5% mayores. También realizamos experimentos multivariable para obtener estimaciones óptimas del volumen total mediante una combinación de distintos predictores. Nuestros resultados muestran que un modelo potencial simple volumen-área explica el 98.6% de la varianza. Sólo el predictor longitud del glaciar proporciona significación estadística cuando se usa además del área del glaciar, aunque el coeficiente de determinación disminuye en comparación con el modelo más simple V-A. El predictor intervalo de altitud no proporciona información adicional cuando se usa además del área del glaciar. Nuestras estimaciones del volumen de la totalidad de glaciares de Svalbard usando las diferentes relaciones de escala obtenidas en esta tesis oscilan entre 6890 y 8106 km3, con errores relativos del orden de 6.6-8.1%. El valor medio de nuestras estimaciones, que puede ser considerado como nuestra mejor estimación del volumen, es de 7.504 km3. En términos de equivalente en nivel del mar (SLE), nuestras estimaciones corresponden a una subida potencial del nivel del mar de 17-20 mm SLE, promediando 19_2 mm SLE, donde el error corresponde al error en volumen antes indicado. En comparación, las estimaciones usando las relaciones V-A de otros autores son de 13-26 mm SLE, promediando 20 _ 2 mm SLE, donde el error representa la desviación estándar de las distintas estimaciones. ABSTRACT The final aim of the research involved in this doctoral thesis is the estimation of the total ice volume of the more than 1600 glaciers of Svalbard, in the Arctic region, and thus their potential contribution to sea-level rise under a global warming scenario. The most accurate calculations of glacier volumes are those based on ice-thicknesses measured by groundpenetrating radar (GPR). However, such measurements are not viable for very large sets of glaciers, due to their cost, logistic difficulties and time requirements, especially in polar or mountain regions. On the contrary, the calculation of glacier areas from satellite images is perfectly viable at global and regional scales, so the volume-area scaling relationships are the most useful tool to determine glacier volumes at global and regional scales, as done for Svalbard in this PhD thesis. As part of the PhD work, we have compiled an inventory of the radio-echo sounded glaciers in Svalbard, and we have performed the volume calculations for more than 80 glacier basins in Svalbard from GPR data. These volumes have been used to calibrate the volume-area relationships derived in this dissertation. Such GPR data have been obtained during fieldwork campaigns carried out by international teams, often lead by the Group of Numerical Simulation in Science and Engineering of the Technical University of Madrid, to which the PhD candidate and her supervisors belong. Furthermore, we have developed a methodology to estimate the error in the volume calculation, which includes a novel technique to calculate the interpolation error for data sets of the type produced by GPR profiling, which show very characteristic data distribution patterns but with very irregular data density. We have derived in this dissertation scaling relationships specific for Svalbard glaciers, exploring the sensitivity of the scaling parameters to different glacier morphologies and adding new variables. In particular, we did experiments aimed to verify whether scaling relationships obtained through characterization of individual glacier shape, slope and size imply significant differences in the estimated volume of the total population of Svalbard glaciers, and whether this partitioning implies any noticeable pattern in the scaling relationship parameters. Our results indicate that, for a fixed value of the factor in the scaling relationship, the exponent of the area in the volume-area relationship decreases as slope and shape increase, whereas size-based classifications do not reveal any clear trend. This means that steep slopes and cirque-type glaciers are less sensitive to changes in glacier area. Moreover, the volumes of the total population of Svalbard glaciers calculated according to partitioning in subgroups by size and slope are smaller (by 1-4%) than that obtained considering all glaciers without partitioning into subgroups, whereas the volumes calculated according to partitioning in subgroups by shape are 3-5% larger. We also did multivariate experiments attempting to optimally predict the volume of Svalbard glaciers from a combination of different predictors. Our results show that a simple power-type V-A model explains 98.6% of the variance. Only the predictor glacier length provides statistical significance when used in addition to the predictor glacier area, though the coefficient of determination decreases as compared with the simpler V-A model. The predictor elevation range did not provide any additional information when used in addition to glacier area. Our estimates of the volume of the entire population of Svalbard glaciers using the different scaling relationships that we have derived along this thesis range within 6890-8106 km3, with estimated relative errors in total volume of the order of 6.6-8.1% The average value of all of our estimates, which could be used as a best estimate for the volume, is 7,504 km3. In terms of sea-level equivalent (SLE), our volume estimates correspond to a potential contribution to sea-level rise within 17-20 mm SLE, averaging 19 _ 2 mm SLE, where the quoted error corresponds to our estimated relative error in volume. For comparison, the estimates using the V-A scaling relations found in the literature range within 13-26 mm SLE, averaging 20 _ 2 mm SLE, where the quoted error represents the standard deviation of the different estimates.
Resumo:
Los dados por magulladura son una de las principales causas de pérdida de calidad en frutos de pepita. En la actualidad existen dispositivos ("frutos electrónicos") que se introducen en cualquier operación de manejo como un fruto más y proporcionan información sobre los impactos que la fruta recibe en el proceso.
Resumo:
The research that is summarized in this article, resultant of diverse studies realized in the CEDEX, has for object a comparative analysis of methods of overtopping rates developed by different authors. For that, the summary was realized first and the analysis of the existing formulations to estimate the rate of overtopping on rubble mound and vertical breakwaters. Later, there was carried out the contrast of the above mentioned formulations by the results obtained in two hydraulic model tests of the Hydraulic Research Laboratory (Center of Studies of Ports and Coasts of the CEDEX, Madrid, Spain).
Resumo:
Reducción del número de parcelas de muestreo al incorporar información auxiliar LiDAR en la estimación de variables dasométricas
Resumo:
Las aplicaciones tecnológicas obtenidas a partir de sensores láser aerotransportados (Airborne Laser Scanner, ALS), han supuesto una gran expectativa para mejorar la calidad de los datos del inventario forestal, mediante su actualización y la posible disminución de los costes de inventario. Sin embargo, todavía existen problemas de aplicación que no están resueltos de manera que su empleo como sustitutivo de un inventario tradicional presenta algunas incógnitas, tanto de carácter técnico como económicas. Por ello, en este trabajo se va a realizar un estudio analítico de costes de utilización, teniendo en cuenta los objetivos del inventario y las limitaciones de la técnica. El caso de estudio se sitúa en el Pinar de Valsaín (Segovia).