47 resultados para 23-10
Resumo:
El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.
Resumo:
The assessment of learning outcomes is a key concept in the European Credit Transfer and Accumulation System (ECTS) since credits are awarded when the assessment shows the competences which were aimed at have been developed at an appropriate level. This paper describes a study which was first part of the Bologna Experts Team-Spain project and then developed as an independent study. It was carried out with the overall goal to gain experience in the assessment of learning outcomes. More specifically it aimed at 1) designing procedures for the assessment of learning outcomes related to these compulsory generic competences; 2) testing some basic psychometric features that an assessment device with some consequences for the subjects being evaluated needs to prove; 3) testing different procedures of standard setting, and 4) using assessment results as orienting feedback to students and their tutors. The process of development of tests to carry out the assessment of learning outcomes is described as well as some basic features regarding their reliability and validity. First conclusions on the comparison of the results achieved at two academic levels are also presented.
Resumo:
La ponencia presenta una comparación entre el rendimiento energético que se obtiene con un módulo fotovoltaico convencional, sin utilizar ningún medio para reducir la temperatura de sus células, y el rendimiento global que resulta si se incorpora a dicho módulo un intercambiador de calor en su parte trasera para reducir la temperatura de sus células y a la vez elevar la temperatura del agua proveniente de la red urbana de abastecimiento. El estudio muestra que el incremento de energia total que se logra mediante la solución propuesta supone una tasa de retorno con un plazo de amortización razonable para este tipo de instalaciones.
Resumo:
El estudio de la distancia de visibilidad disponible en carreteras es de gran importancia para la seguridad vial. Los Mobile Mapping Systems (MMS) permiten capturar los elementos de las carreteras existentes y su entorno con alta resolución y rendimiento, obteniendo nubes de puntos 3D (LIDAR) con precisión centimétrica y fotografías panorámicas. El tratamiento de la ingente cantidad de datos que estos equipos proporcionan se ha efectuado con herramientas específicas de tratamiento de datos LIDAR y de ESRI. El cálculo de la distancia de visibilidad disponible se ha realizado mediante una aplicación que funciona sobre ArcGIS. Todo ello permite estimar la distancia de visibilidad disponible con gran precisión, utilizando tanto modelos digitales del terreno como de superficie, de manera que es posible analizar la influencia que tienen la vegetación y otros elementos de las márgenes. Se describen las técnicas utilizadas y su aplicación práctica a una carretera de la Comunidad de Madrid.
Resumo:
La ebullición en película es el mecanismo de transferencia de calor básico que acopla térmicamente un líquido y una superficie caliente cuando existe una gran diferencia de temperatura entre ambos. El conocimiento preciso del comportamiento de este mecanismo térmico en torno a esferas es necesario para el análisis de seguridad de escenarios industriales en los que exista contacto entre un líquido y un material fundido fragmentado, generalmente en piezas esferoidales, y resulta esencial para garantizar la seguridad de los reactores nucleares ante escenarios accidentales de muy baja probabilidad, pero de gran severidad, en los que se postule la rotura en guillotina del circuito de refrigeración del reactor simultánea al fallo total activo del sistema de refrigeración de emergencia del núcleo. En tal hipotético escenario, se produciría la fusión del combustible en el plazo de algunas horas, con dispersión y relocalización de fragmentos sólidos esferoidales a muy alta temperatura. Para hacer frente a este escenario se precisa desarrollar procedimientos automáticos y manuales de operación de emergencia, resultando imprescindible disponer de modelos térmicos confiables, con un calificado soporte experimental, que permitan analizar de forma realista la refrigeración por ebullición en película, en modo ebullición en piscina, de las geometrías esferoidales sólidas resultantes. En el presente trabajo UNET-UPM abordan la verificación de las correlaciones más conocidas para ebullición en película en piscina en torno a esferas, mediante la comparación de las mismas con los resultados experimentales obtenidos por Liu-Theofanous. Algunos de los aspectos resaltantes son la limitada aplicabilidad de la correlación empírica de Frederking-Clark, el buen ajuste que muestran las correlaciones de Tou- Tso y de Grigoriew frente a los datos experimentales usados, y las deficiencias que muestran las correlaciones que toman en cuenta el subenfriamiento del líquido, sobre todo a altos niveles de subenfriamiento. En una futura segunda fase de esta investigación, de tipo analítica-numérica-experimental, se abordará en el desarrollo de nuevas correlaciones semi-empíricas, de mejor ajuste, que permitan una mejor capacidad predictiva en los modelos.
Resumo:
La ebullición en película es el mecanismo de transferencia de calor básico que acopla térmicamente un líquido, saturado o subenfriado, y una superficie caliente cuando existe una gran diferencia de temperatura entre ambos. Dicho mecanismo presenta la complejidad física asociada a la existencia de una capa límite convectiva de vapor en torno a la superficie caliente, así como al acoplamiento térmico radiante entre la superficie y los dos medios participativos que la rodean (vapor y líquido). Este mecanismo tiene aplicaciones tecnológicas de interés en propulsión aeroespacial, en sistemas criogénicos, en procesos industriales metalúrgicos, y en otras áreas de la Ingeniería en donde existe la necesidad de enfriar mediante ebullición superficies a alta temperatura. Por otra parte, la refrigeración por ebullición en película es un mecanismo que resulta de importancia esencial en el análisis de la seguridad de procesos industriales en los que sea previsible la interacción de agua y materiales fundidos, entre los que cabe destacar el caso de los reactores nucleares ante escenarios de riesgo en los que el acoplamiento térmico convectivo-radiante entre el combustible nuclear y el refrigerante, e incluso entre la superficie exterior de la vasija y el refrigerante, garantiza el cumplimiento de los criterios de aceptación en caso de fallo mecánico importante del sistema de refrigeración del reactor. En el presente trabajo, y para identificar el marco en que UNET-UPM desarrollará sus investigaciones sobre ebullición en película en piscina en torno a esferas, se realiza una revisión de los estudios más relevantes desarrollados en esta temática, en la que las primeras investigaciones teóricas y experimentales, de tipo fundamental, se remontan al periodo 1950-65 en que se desarrollaron los primeros proyectos de navegación espacial, y se diseñaron y construyeron los primeros reactores nucleares de aplicación comercial, promoviéndose posteriormente numerosas investigaciones que aportaron correlaciones "ad-hoc" de aplicación restringida a ciertas tecnologías, así como otras de propósito general, de menor precisión pero con mayor soporte teórico.
Resumo:
La producción agrícola mediante cultivo en invernad ero es una de las técnicas más extendidas hoy en día para aumentar los rendimientos agrícolas debido al control de diversos factores de producción como son el riego, la fertilización, humedad relativa, luminosidad o la calidad del sustrato de cultivo. El sustrato de cultivo utilizado tradicionalmente es la turba debido a su excelente combinación de propiedades físico-químicas como son su bajo pH, elevada capacidad de intercambio catiónico o adecuada porosidad. Sin embargo, se trata de un material no renovable y de muy lenta formación, cuyo uso como sustrato está prohibido en muchos países, por lo que en los últimos años se han desarrollado diversos materiales sustitutivos [1,2]. El objetivo principal del presente trabajo es estudiar la utilización de carbón vegetal, restos de poda y mezclas de ambos materiales como sustratos de cultivo.
Resumo:
In this paper, the authors introduce a novel mechanism for data management in a middleware for smart home control, where a relational database and semantic ontology storage are used at the same time in a Data Warehouse. An annotation system has been designed for instructing the storage format and location, registering new ontology concepts and most importantly, guaranteeing the Data Consistency between the two storage methods. For easing the data persistence process, the Data Access Object (DAO) pattern is applied and optimized to enhance the Data Consistency assurance. Finally, this novel mechanism provides an easy manner for the development of applications and their integration with BATMP. Finally, an application named "Parameter Monitoring Service" is given as an example for assessing the feasibility of the system.
Resumo:
En los problemas de inestabilidad de taludes de desmonte o de terraplenes, en autopistas y carreteras se usan, a menudo, los pilotes y micropilotes. En esta comunicación se analiza el problema de los esfuerzos de flexión que pueden aparecer en estos elementos (rígidos y flexibles), como consecuencia de la inestabilidad de taludes, estableciendo un método sencillo – basado en análisis con códigos de elementos finitos – para estimar el máximo momento flector de estos “pasadores”. Así mismo, se analizan algunos casos particulares (provincia de Granada) en que se ha usado pilotes de gran diámetro y micropilotes, estableciendo un criterio de rigidez relativa (entre la del pilote y la deformabilidad del terreno) para establecer cuándo deben utilizarse los pilotes de gran diámetro, cuándo los de mediano diámetro y cuándo los micropilotes.
Resumo:
This paper describes a framework for annotation on travel blogs based on subjectivity (FATS). The framework has the capability to auto-annotate -sentence by sentence- sections from blogs (posts) about travelling in the Spanish language. FATS is used in this experiment to annotate com- ponents from travel blogs in order to create a corpus of 300 annotated posts. Each subjective element in a sentence is annotated as positive or negative as appropriate. Currently correct annotations add up to about 95 per cent in our subset of the travel domain. By means of an iterative process of annotation we can create a subjectively annotated domain specific corpus.
Resumo:
El contexto actual, en el que la meteorología resulta cada vez más extrema y los daños por crecidas se convierten algo habitual, resulta de gran importancia contar con herramientas que posibiliten la prevención de estos, en la medida de lo posible. Los sistemas de alerta temprana resultan de gran utilidad en la prevención de pérdidas materiales y humanas.
Resumo:
Hoy en día no se puede concebir la gestión de una red de abastecimiento sin un modelo matemático que represente los activos de los que se dispone. Desde hace ya varias décadas, las empresas suministradoras de agua potable o las gestoras municipales y de regadío han comprendido la importancia que tienen estos modelos, por lo que han invertido tiempo y dinero en completarlos para que representen fielmente la realidad de sus infraestructuras, sirviéndose de ellos para conocer el comportamiento de su red ante posibles cortes, reparaciones o cambios en la demanda de los abonados. Sin embargo, la situación actual, en la que resulta cada vez más crítico el aprovechamiento de los recursos disponibles, tanto medioambientalmente (ahorro de agua y de energía), como económicamente, obliga a los gestores a analizar muchos datos simultáneamente. Estos datos llegan desde muy diversas fuentes, esperándose que el operador los interprete rápidamente, sean incorporados al modelo matemático para obtener un resultado e inmediatamente se obtenga una respuesta para la administración de la red.
Resumo:
En febrero de 2014, BCASA (Barcelona Cicle de l'Aigua, S.A.) realizó un estudio del drenaje del Passeig de Gràcia de Barcelona mediante el modelo matemático InfoWorks ICM. El objetivo era el análisis de riesgos y la aplicación de medidas correctivas para minimizar estos, con la intensificación del drenaje en puntos estratégicos. Se obtuvieron resultados de afecciones en situación inicial y proyectada. En este modelo matemático se incluyeron tanto los elementos subterráneos de recogida del agua de lluvia (conductos, pozos y sumideros), como todas las superficies (calzadas, aceras, jardines...) por los que circula la precipitación hasta los imbornales.
Resumo:
Una de las principales preocupaciones a la hora de realizar cualquier proyecto de ingeniería es la adecuada determinación de los hidrogramas de avenida de los cursos de agua que lo afecten. Hoy en día es posible la simulación de modelos hidrológicos complejos de lluvia directa sobre malla 2D de elementos finitos, empleando los avances en cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo), sin la necesidad de determinar subcuencas y tránsitos (como en HEC-HMS). Con los datos que ofrecen los Modelos Digitales del Terreno GRID del PNOA español (Plan Nacional de Ortofotografía Aérea) con precisión de 5 x 5 m y las Coberturas del Terreno SIG CORINE (Coordinación de Información del Medio Ambiente), que permite la evaluación de la rugosidad del suelo, se tiene la información necesaria para construir fácilmente este tipo de modelos. En este documento se presenta un procedimiento para delimitar fácilmente los cursos de agua principales y disponer en estas zonas un tamaño más pequeño de los elementos de la malla. El método propuesto permite una mejor definición de estas áreas después de unas pocas iteraciones, acelerando por tanto el proceso de construcción del modelo sin comprometer la calidad de los resultados. Para demostrar el método, se modelizaron dos cuencas completas mediante lluvia directa sobre una malla de elementos 2D. Se ensayaron diferentes niveles de precisión (variando el número de elementos) y se incluyeron dos presas, usando los datos del Modelo Digital del Terreno del PNOA. También se completó el cálculo hidrológico de ambas mediante HEC-HMS. En primer lugar se estudió la cuenca del río Zapardiel (cuenca del Duero, con superficie total de 1.450 km2, no presenta regulación artificial, pero sí algunas áreas de almacenamiento naturales). La segunda cuenca ensayada correspondió al río Zújar (cuenca del Guadiana, con superficie total de 8.500 km2, que incluye dos grandes presas: La Serena, con una capacidad de 3.200 hm3 y el Embalse del Zújar, situado aguas abajo de la primera, con un volumen útil de 300 hm3). Los resultados confirmaron que la forma de modelizar clásica con enfoque de subcuencas y tránsitos (tipo HEC-HMS) puede ser reemplazada por simulaciones de lluvia directa sobre malla 2D, por lo tanto reduciendo la incertidumbre inherente en la estimación de tiempos de concentración de subcuencas y parámetros de tránsito. Gracias a la disponibilidad de datos públicos de GRID PNOA y cobertura del terreno CORINE, actualmente es posible construir modelos de mallas de elementos 2D para simular lluvia directa sobre cuenca sin necesidad de costosos levantamientos topográficos. Con el hardware disponible hoy en día en ordenadores de uso general, se puede establecer un límite superior razonable para mallas 2D de 4 millones de elementos, lo que permite la correcta simulación de la lluvia directa en cuencas de hasta 10.000 km2. Para cuencas más grandes, este proceso se podría aplicar de forma repetida a varias zonas más pequeñas o en sucesivas secciones de la cuenca.
Resumo:
Entre las soluciones más satisfactorias al problema de las emisiones de CO2 está la captura y almacenamiento de este gas de efecto invernadero en reservorios profundos. Esta técnica implica la necesidad de monitorizar grandes extensiones de terreno. Utilizando una zona de vulcanismo residual, en la provincia de Ciudad Real, se han monitorizado las emisiones de CO2 utilizando imágenes de muy alta resolución espacial. Se han generado índices de vegetación, y estos se han correlacionado con medidas de contenido de CO2 del aire en los puntos de emisión. Los resultados han arrojado niveles de correlación significativos (p. ej.: SAVI = -0,93) y han llevado a descubrir un nuevo punto de emisión de CO2. Palabras clave: teledetección, CO2, vegetación, satélite Monitoring CO2 emissions in a natural analogue by correlating with vegetation indices Abstract: Among the most satisfactory solutions for the CO2 emissions problem is the capture and storage of this greenhouse gas in deep reservoirs. This technique involves the need to monitor large areas. Using a volcanic area with residual activity, in the province of Ciudad Real, CO2 emissions were monitored through very high spatial resolution imagery. Vegetation indexes were generated and correlated with measurements of the air?s CO2 content at the emission points. The results yielded significant correlation levels (e.g.: SAVI = -0.93) and led to the discovery of a new CO2 emission point. Keywords: remote sensing, CO2, vegetation, satellite.