1000 resultados para estimación por intervalo
Resumo:
Las inundaciones son los desastres causados por fenómenos naturales que más daños provocan a diferentes sectores, como son los de la vivienda, comercial, agrícola, turístico e industrial. Este último es un sector que sufre importantes daños, pero que no ha sido estudiado ya que se le consideraba como poco vulnerable y con capacidad de adaptación ante desastres naturales. La implementación de una metodología para calcular los daños directos tangibles en función de la altura de lámina de agua alcanzada vs daños económicos, permite tener estimaciones de las pérdidas económicas causadas por inundaciones. Este trabajo muestra el estado del arte e identifica las investigaciones referentes al cálculo de daños provocados por inundación y su aplicación en países en desarrollo como lo es México.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
El flujo óptico y la estimación de movimiento es área de conocimiento muy importante usado en otros campos del conocimiento como el de la seguridad o el de la bioinformática. En estos sectores, se demandan aplicaciones de flujo óptico que realicen actividades muy importantes con tiempos de ejecución lo más bajos posibles, llegando a tiempo real si es posible. Debido a la gran complejidad de cálculos que siguen a este tipo de algoritmos como se observará en la sección de resultados, la aceleración de estos es una parte vital para dar soporte y conseguir ese tiempo real tan buscado. Por lo que planteamos como objetivo para este TFG la aceleración de este tipo de algoritmos mediante diversos tipos de aceleradores usando OpenCL y de paso demostrar que OpenCL es una buena herramienta que permite códigos paralelizados con un gran Speedup a la par que funcionar en toda una diversa gama de dispositivos tan distintos como un GPU y una FPGA. Para lo anteriormente mencionado trataremos de desarrollar un código para cada algoritmo y optimizarlo de forma no especifica a una plataforma para posteriormente ejecutarlo sobre las diversas plataformas y medir tiempos y error para cada algoritmo. Para el desarrollo de este proyecto partimos de la teoría de dos algoritmos ya existentes: Lucas&Kanade monoescala y el Horn&Schunck. Además, usaremos estímulos para estos algoritmos muy aceptados por la comunidad como pueden ser el RubberWhale o los Grove, los cuales nos ayudarán a establecer la corrección de estos algoritmos y analizar su precisión, dando así un estudio referencia para saber cual escoger.
Resumo:
España, al igual que la práctica totalidad de los países europeos del Mediterráneo, es un país de importante tradición vitivinícola. El consumo de vino forma parte de las costumbres, de la llamada ‘dieta mediterránea’ y tiene un significativo papel en diversos sectores económicos de gran importancia, como turismo, restauración, y ocio. Existen un numero importante de datos, en las dos últimas décadas, que indican que los patrones de bebida continúan variando en España, como también lo hacen en otros países del área mediterránea. Asimismo, en los últimos años también han aparecido numerosos artículos que sugieren que el consumo moderado de alcohol reduce la mortalidad global y que el del vino en particular, debido a sus componentes polifenolicos, tiene una incidencia, en numerosos procesos oxidatívos del organismo. Así, sin negar la toxicidad incuestionable del alcohol en exceso, se han realizado múltiples estudios para demostrar los potenciales efectos beneficiosos de las bebidas alcohólicas y del vino en particular, consumido con moderación, y promover este consumo moderado. Sin embargo en la mayoría de estos estudios, no se tiene, en cuenta, la complejidad de los constituyentes del vino y en particular de los polifenoles, que es dependiente de las uvas de las que procede, de su grado de madurez, del clima, de los suelos vitivinícolas donde se encuentra ubicado el viñedo y de la vinificación y crianza que ha seguido el vino. Existe una incidencia de la estructura polifenólica sobre la biodisponibilidad de los mismos y por tanto también sobre sus posibles efectos...
Resumo:
The need for continuous recording rain gauges makes it difficult to determine the rainfall erosivity factor (R-factor) of the (R)USLE model in areas without good temporal data coverage. In mainland Spain, the Nature Conservation Institute (ICONA) determined the R-factor at few selected pluviographs, so simple estimates of the R-factor are definitely of great interest. The objectives of this study were: (1) to identify a readily available estimate of the R-factor for mainland Spain; (2) to discuss the applicability of a single (global) estimate based on analysis of regional results; (3) to evaluate the effect of record length on estimate precision and accuracy; and (4) to validate an available regression model developed by ICONA. Four estimators based on monthly precipitation were computed at 74 rainfall stations throughout mainland Spain. The regression analysis conducted at a global level clearly showed that modified Fournier index (MFI) ranked first among all assessed indexes. Applicability of this preliminary global model across mainland Spain was evaluated by analyzing regression results obtained at a regional level. It was found that three contiguous regions of eastern Spain (Catalonia, Valencian Community and Murcia) could have a different rainfall erosivity pattern, so a new regression analysis was conducted by dividing mainland Spain into two areas: Eastern Spain and plateau-lowland area. A comparative analysis concluded that the bi-areal regression model based on MFI for a 10-year record length provided a simple, precise and accurate estimate of the R-factor in mainland Spain. Finally, validation of the regression model proposed by ICONA showed that R-ICONA index overpredicted the R-factor by approximately 19%.
Resumo:
Este estudio presenta la validación de las observaciones que realizó el programa de observación pesquera llamado Programa Bitácoras de Pesca (PBP) durante el periodo 2005 - 2011 en el área de distribución donde operan las embarcaciones industriales de cerco dedicadas a la pesca del stock norte-centro de la anchoveta peruana (Engraulis ringens). Además, durante ese mismo periodo y área de distribución, se estimó la magnitud del descarte por exceso de captura, descarte de juveniles y la captura incidental de dicha pesquera. Se observaron 3 768 viajes de un total de 302 859, representando un porcentaje de 1.2 %. Los datos del descarte por exceso de captura, descarte de juveniles y captura incidental registrados en los viajes observados, se caracterizaron por presentar un alta proporción de ceros. Para la validación de las observaciones, se realizó un estudio de simulación basado en la metodología de Monte Carlo usando un modelo de distribución binomial negativo. Esta permite inferir sobre el nivel de cobertura óptima y conocer si la información obtenida en el programa de observación es contable. De este análisis, se concluye que los niveles de observación actual se deberían incrementar hasta tener un nivel de cobertura de al menos el 10% del total de viajes que realicen en el año las embarcaciones industriales de cerco dedicadas a la pesca del stock norte-centro de la anchoveta peruana. La estimación del descarte por exceso de captura, descarte de juveniles y captura incidental se realizó mediante tres metodologías: Bootstrap, Modelo General Lineal (GLM) y Modelo Delta. Cada metodología estimó distintas magnitudes con tendencias similares. Las magnitudes estimadas fueron comparadas usando un ANOVA Bayesiano, la cual muestra que hubo escasa evidencia que las magnitudes estimadas del descarte por exceso de captura por metodología sean diferentes, lo mismo se presentó para el caso de la captura incidental, mientras que para el descarte de juveniles mostró que hubieron diferencias sustanciales de ser diferentes. La metodología que cumplió los supuestos y explico la mayor variabilidad de las variables modeladas fue el Modelo Delta, el cual parece ser una mejor alternativa para la estimación, debido a la alta proporción de ceros en los datos. Las estimaciones promedio del descarte por exceso de captura, descarte de juveniles y captura incidental aplicando el Modelo Delta, fueron 252 580, 41 772, 44 823 toneladas respectivamente, que en conjunto representaron el 5.74% de los desembarques. Además, con la magnitud de la estimación del descarte de juveniles, se realizó un ejercicio de proyección de biomasa bajo el escenario hipotético de no mortalidad por pesca y que los individuos juveniles descartados sólo presentaron tallas de 8 y 11 cm., en la cual se obtuvo que la biomasa que no estará disponible a la pesca está entre los 52 mil y 93 mil toneladas.
Resumo:
[ES]Uno de los elementos de más importancia en la movilidad de las ciudades desarrolladas es la gestión del tráfico rodado. La movilidad tiene una influencia determinante en la calidad de vida de los ciudadanos por diversas razones, entre la que destacan la seguridad, la eficiencia y el impacto medioambiental. Por ello es preciso dotar a los gestores de esa movilidad de herramientas que les permitan disponer de una idea precisa de la situación actual y si es posible, estimaciones del estado futuro. Esas herramientas les facilitan la toma de decisiones y el planeamiento de la movilidad. En este punto concreto se enmarca este Trabajo Fin de Grado...
Resumo:
En el presente documento se estudia el desempeño que ha tenido Perú durante la última fase expansiva del ciclo de precios de commodities, específicamente entre los años 2001 y 2015. Para esto, se desarrolla un modelo de equilibrio general estocástico y dinámico, basado en Medina y Soto (2007) y Fornero y Kichner (2014), que incorpora un sector productor de commodities con inversión del tipo time to build. El modelo es estimado de forma lineal y a partir de este se muestra la importancia que tienen los choques de precios commodities sobre el resto de la actividad económica. Asimismo, se analizan distintos tipos de políticas fiscales y monetarias, ante este tipo de choques. También se obtienen políticas monetarias óptimas a partir de la función de pérdida de la autoridad monetaria. Los resultados de la investigación apuntan a que, cuando hay un incremento en el precio de los commodities, se genera una dinámica procíclica en el valor de la producción de todos los sectores, en la inversión, el consumo y el gasto del Gobierno. Además, se encuentra que la incorporación del mecanismo de time to build permite explicar mejor la dinámica observada. Dicho mecanismo ayuda a comprender que el choque en cuestión demora en propagarse, ya que los proyectos mineros toman tiempo en construirse. Este aporte metodológico es de particular relevancia en los ejercicios de modelamiento y predicción que se quieran realizar sobre la economía peruana.
Resumo:
El sector agrícola ha constituido una de las principales fuentes de ingreso para la economía colombiana; sin embargo, carece de un mercado de derivados financieros sólido que permita proteger a los productores y exportadores frente al riesgo de la volatilidad del precio -- Con esta propuesta se busca estimar los rendimientos de conveniencia y los precios teóricos para los futuros de café en Colombia -- Para este propósito, inicialmente se describe el mercado de café en Colombia y posteriormente se modelan el precio del café y su volatilidad con base en variables como el clima y los niveles de inventario -- Finalmente, se estiman las bandas en las cuales oscilaría el precio en caso de que se cumplan ciertas condiciones de no arbitraje, a partir de la metodología diseñada por Díaz y Vanegas (2001) y complementada por Cárcamo y Franco (2012) -- A manera de ilustración, se incorporan los rendimientos de conveniencia y se expone un caso hipotético en un mercado de café en Colombia
Resumo:
De manera convencional para la estimación de la edad gestacional se utilizan las mediciones fetales: diámetro biparietal (DBP), circunferencia cefálica (CC), circunferencia abdominal (CA), longitud del fémur (LF). Estas mediciones sufren la influencia de distintos factores como los trastornos del crecimiento, el oligohidramnios, y el encajamiento de la cabeza fetal, haciéndolas no adecuadas la estimación de la edad gestacional. Si deseamos estimar la edad gestacional en estas circunstancias, debemos utilizar mediciones que no se alteren o se alteren muy poco con los trastornos del crecimiento, como el diámetro cerebeloso, la longitud del húmero, y la longitud del fémur. Debido a que los modelos que mejor reflejan el crecimiento de las mediciones ecográficas: cerebelo fetal, diámetro bi-ocular, longitud del húmero y longitud del fémur no son lineales, debemos construir los Modelos Estadísticos para estimar la edad gestacional, con Regresión no Lineal. Los Modelos de Regresión obtenidas cumplen con las metas propuestas: 1.- Valores de r en un rango de 0,9 a 0,99 2.- Coeficientes (b, c, d, n) sean distintos de 0 .- El análisis anova nos da F con valores significativos. Todos los coeficientes tienen T y P, significativos. Estas ecuaciones son útiles desde la semana 14 a la semana 40, y en las siguientes situaciones clínicas: 1.- Fetos con restricción del crecimiento 2.- Fetos en posición occipito posterior 3.- Cabeza fetal encajada