869 resultados para Ingeniería del Terreno


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las entrevistas son las técnicas de elicitación más utilizadas en la Ingeniería de Requisitos (IR). Sin embargo, existen pocos trabajos de investigación centrados en estas técnicas y aún menos estudios experimentales. Recientemente hemos experimentado para analizar la efectividad de las entrevistas estructuradas y no estructuradas. Los resultados se combinaron con otros de estudios experimentales realizados en el campo de Sistemas de Información. Para ello se aplicó el meta-­análisis, con el objetivo de desarrollar directrices para usar las entrevistas en IR. Sin embargo, se han obtenido pocas debido a la diversidad, en términos de variables respuesta, de los estudios primarios. Aunque los estudios meta-analizados parecen similares según sus diseños, fijándonos en las amenazas a la validez se identifican más diferencias que similitudes. El análisis de estas amenazas puede ser un medio para comprender cómo mejorar el diseño de futuras replicaciones, ejecutadas para generar nuevas evidencias y mejorar resultados de los meta­análisis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Software Product Line Engineering (SPLE) is becoming widely used due to the improvement it means when developing software products of the same family. However, SPLE demands long-term investment on a product-line platform that might not be profitable due to rapid changing business settings. Since Agile Software Development (ASD) approaches are being successfully applied in volatile markets, several companies have suggested the idea of integrating SPLE and ASD when a family product has to be developed. Agile Product Line Engineering (APLE) advocates the integration of SPLE and ASD to address their lacks when they are individually applied to software development. A previous literature re-view of experiences and practices on APLE revealed important challenges about how to fully put APLE into practice. Our contribution address several of these challenges by tailoring the agile method Scrum by means of three concepts that we have defined: plastic partial components, working PL-architectures, and reactive reuse.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

San José de Cusmapa es uno de los municipios más pobres de Nicaragua con un índice de desarrollo humano (IDH) de 0,517 (FAO, 2010). Se clasifica como un municipio de “Pobreza severa” (el 69% de sus hogares se encuentran bajo el umbral de “Pobreza extrema”, usando el método de las Necesidades Básicas Insatisfechas, NBI, según el Mapa de Pobreza de Nicaragua más reciente). Su población rural es de 7072 habitantes de los cuales 3474 con mujeres, está distribuida en 26 comunidades. Su población se caracteriza por una elevada tasa de analfabetismo, 26% en mujeres y 29% en hombres (INIDE, 2008) y con una vulnerabilidad alimentaria registrada en un 58% y 27% de tasa de desnutrición crónica y desnutrición crónica severa (SICA, 2011). El tipo de clima y el relieve condiciona tanto la agricultura como las vías de comunicación, viéndose limitado el acceso a servicios básicos. Lo que junto con las condiciones poco favorables de producción de alimentos, la sobreexplotación del terreno y la degradación de los recursos naturales hacen que tengan una alimentación deficiente y una precaria economía familiar, aumentando la vulnerabilidad de los campesinos, que dificulta la diversificación de sus fuentes de ingreso y el acceso a nuevos mercados. Para mejorar las crisis alimentarias y capacitar a la población para su desarrollo humano, la ONG nicaragüense INSFOP-UNICAM (Instituto de Formación Permanente – Universidad Campesina) junto con los Grupos de Cooperación de la UPM: AgSystems y Planificación y gestión sostenible de desarrollo rural-local (GCPGSDRL), están llevando a cabo desde 2007 el proyecto llamado “Reducción de la vulnerabilidad de las familias rurales en San José de Cusmapa (Nicaragua)”, donde a través de los talleres formativos, cooperativistas y de asistencia técnica de “Escuelas de campo” (ECAs), tiene como propósito la consecución de una soberanía alimentaria de las familias rurales de dicha localidad. El objetivo es comprobar si ha habido una mejoría en las familias rurales después de la intervención de la ONG y la UPM. Además, mostrar la metodología usada en la toma de datos y obtención de información in situ, sobre la situación agrícola y socio-económica de las familias beneficiarias de los proyectos de ECAs. Así como presentar los primeros resultados de la evaluación de la seguridad alimentaria y nutricional

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El coste de la energía es, en la actualidad, una de las principales preocupaciones de determinadas zonas regables. Aquellos proyectos de mejora de regadíos, que consistieron fundamentalmente en la sustitución de las redes de distribución en lámina libre por redes a presión, se ven ahora en una situación en la que su rentabilidad financiera se pone en duda y, como consecuencia, su sostenibilidad. El relativamente reciente comienzo del incremento del precio de la energía y otros cambios, como por ejemplo los acaecidos en la política agraria común PAC o la eliminación de las tarifas eléctricas estacionales para riego, han provocado que los proyectos estén operando en puntos alejados de las previsiones iniciales, en los que la rentabilidad social, económica y ambiental quedaba justificada. Ante esta situación, las comunidades de regantes están abordando cambios. Entre estos, destacan, por un lado, las actuaciones sobre las infraestructuras, tales como modificación de equipos de bombeo, reducción de la resistencia al flujo de determinados tramos o zonas de las redes. Por el otro, están abordando cambios en la gestión de estas últimas. En algunos casos, en el riego a la demanda, a través de la aprobación del colectivo, se pierde cierta libertad con la intención de reducir la factura energética. Sin embargo, al final, es el propio regante el que tiene que actuar. En algunos casos, se cambian los cultivos por otros de cosecha temprana o incluso se dejan de regar parte de las tierras regables. En esta situación, que se puede calificar de frágil, por un lado, conviene identificar aquellas actuaciones que por unidad monetaria invertida producirán el máximo beneficio. Y, por el otro, aquellas que por unidad monetaria perdida en el beneficio redunden en una reducción máxima de los costes. Este trabajo trata de centrar el objetivo general arriba enunciado al ámbito de las redes de riego a presión. Si bien hay ya algunos trabajos sobre auditorías energéticas, su aplicación no permite desarrollar el objetivo de este trabajo, ya que van dirigidas hacia la recopilación y elaboración de información. Por este motivo, se proponen y analizan indicadores de rendimiento basados en el balance energético tanto de las infraestructuras, desglosados según la funcionalidad de sus elementos, como del manejo y las condiciones de funcionamiento.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se presentan los resultados experimentales de un estudio realizado en el Laboratorio de Motores Térmicos de la ETSII de la UPM para evaluar el impacto en eficiencia energética y medioambiental de la tecnología Stop/Start en vehículos todoterreno con motor diesel, en condiciones de tráfico real urbano. Se realizaron ensayos urbanos con vehículos Land Rover Freelander2 en la zona central de la ciudad de Madrid midiendo la emisión instantánea de CO2 y de CO con equipos de medida de emisiones embarcados, y el consumo de combustible se calculó a partir del “balance de carbonos” midiendo el caudal de gases de escape mediante un caudalímetro de desarrollo propio. Se utilizaron dos vehículos todoterreno con motor diesel semejante, ambos cumpliendo los mismos límites Euro 4 para vehículos ligeros, uno convencional y otro adaptado con sistema Stop/Start. Se obtuvieron curvas de tendencia de consumo de combustible y de emisión de CO2 con la velocidad media, que demuestran el significativo efecto de mejora en la eficiencia energética de la versión de motor adaptado con sistema Stop/Start.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este proyecto aborda el estudio geotécnico de un edificio destinado a ser un centro cívico situado en una parcela del término municipal de Coslada. El edificio se compone de tres plantas y un sótano, con una superficie de 3173m2. Con el fin de clasificar y caracterizar los materiales del terreno que soporta el edificio, se analiza el marco geológico regional y local de la zona. En el proyecto se presentan los resultados obtenidos en la campaña de reconocimiento de campo y en los ensayos realizados en laboratorio, necesarios para describir las propiedades geotécnicas del terreno. Se estudia la capacidad de carga del terreno para asegurar una correcta cimentación y se dan unas recomendaciones referentes a la excavación del sótano y su sostenimiento. Para ello se siguen la normativa propuesta en el Código Técnico de la Edificación. Por último, se estiman los costes producidos por la campaña de reconocimiento de campo, los ensayos de laboratorio y la redacción del presente proyecto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dos aspectos destacan entre los resultados más interesantes de la investigación en la década de los 90 en el campo de la ingeniería del conocimiento. Por un lado, se ha profundizado en el conocimiento sobre cómo las personas resuelven problemas. Esto se ha logrado por la vía empírica mediante un trabajo científico de observación, experimentación por medios computacionales y generalización. Como resultado de esta línea, actualmente se dispone de un primer conjunto de modelos formales, los llamados problem-solving methods (PSM), muy útiles en el campo de la ingeniería informática como plantillas de diseño que guían la construcción de nuevos sistemas. Por otro lado, como logro adicional en este campo de investigación, se ha creado un nuevo lenguaje descriptivo como complemento a las formas de representación tradicionales. Dicho lenguaje, que ha sido aceptado por un amplio número de autores, se sitúa en un mayor nivel de abstracción y permite la formulación de arquitecturas más complejas de sistemas basados en el conocimiento. Como autores que más han contribuido en este aspecto se pueden citar: Luc Steels que propuso los denominados componentes de la experiencia como forma de unificación de trabajos previos en este campo, Bob Wielinga, Guus Schreiber y Jost Breuker en el campo de metodologías de ingeniería del conocimiento y el equipo de Mark Musen respecto a herramientas. Dicho lenguaje descriptivo ha supuesto además el planteamiento de una nueva generación de herramientas software de ayuda a los técnicos desarrolladores para construcción de este tipo de sistemas. El propósito principal del presente texto es servir de base como fuente de información de ambos aspectos recientes del campo de la ingeniería del conocimiento. El texto está dirigido a profesionales y estudiantes del campo de la informática que conocen técnicas básicas tradicionales de representación del conocimiento. La redacción del presente texto se ha orientado en primer lugar para recopilar y uniformizar la descripción de métodos existentes en la literatura de ingeniería de conocimiento. Se ha elegido un conjunto de métodos representativo en este campo que no cubre la totalidad de los métodos existentes pero sí los más conocidos y utilizados en ingeniería del conocimiento, presentando una descripción detallada de carácter tanto teórico como práctico. El texto describe cada método utilizando una notación común a todos ellos, parcialmente basada en los estándares descriptivos seguidos por las metodologías más extendidas. Para cada método se incluyen algoritmos definidos de forma expresa para el presente texto con ejemplos detallados de operación. Ambos aspectos, la uniformización junto a la presentación detallada de la operación, suponen una novedad interesante respecto al estado actual de la literatura sobre este campo, lo que hace el texto muy adecuado para ser utilizado como libro de consulta como apoyo en la docencia de la asignatura de construcción de sistemas inteligentes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo de este Proyecto Fin de Carrera es el levantamiento y encaje de una línea de tranvía en Toledo. En este proyecto se combinan la utilización de técnicas mediante aparatos GPS, métodos topográficos para la realización de la poligonal, levantamiento y nivelación, así como el procesamiento de datos con programas de CAD para obtener un modelo digital del terreno de la zona de ocupación. Los factores determinantes que han conducido a la realización de un proyecto de estas características se podrían resumir como los siguientes: - Novedad del proyecto, pues hasta la fecha se ha tratado poco el tema de la ejecución de topografía de obras aplicada a medios de transporte férreos, en este caso concreto, el tranvía. - Proximidad y conocimiento de la zona de ocupación de la obra. Toledo es una ciudad cercana a la Universidad, por lo que desplazarse hasta ella para realizar todos los pasos del proyecto no es un inconveniente. Además, la zona concreta del levantamiento es una de las principales partes de la ciudad por la que se accede al casco histórico de la misma. - Atractivo que ejerce el tranvía como medio de transporte, gracias en parte a su actual renacimiento en muchas ciudades. - Elaboración de un proyecto completo, que reúna la utilización en una obra de diferentes metodologías y aparatos topográficos. El objetivo a alcanzar en este proyecto es la realización de un levantamiento topográfico de la zona de actuación, que conlleva un posterior modelo digital del terreno, para realizar la proyección de una vía de tranvía en la localidad de Toledo. El levantamiento se ha realizado combinando técnicas clásicas de la Topografía, como son la poligonal, la radiación y la nivelación geométrica, con técnicas actuales como el sistema global de navegación por satélite o GNSS. Se ha tenido en cuenta las precisiones que aporta cada método y la influencia de éstas en la determinación posterior de las coordenadas de los puntos que forman la cartografía del terreno. Una vez obtenida la cartografía base de la zona, se procedió al cálculo del trazado de la vía, siempre acorde con la normativa reglamentaria correspondiente. La vía a proyectar une la estación de trenes de alta velocidad con la Puerta de Bisagra, situada en la muralla que da acceso al casco antiguo. El recorrido total entre ambos puntos es de unos 1260 m.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los incendios forestales son la principal causa de mortalidad de árboles en la Europa mediterránea y constituyen la amenaza más seria para los ecosistemas forestales españoles. En la Comunidad Valenciana, diariamente se despliega cerca de un centenar de vehículos de vigilancia, cuya distribución se apoya, fundamentalmente, en un índice de riesgo de incendios calculado en función de las condiciones meteorológicas. La tesis se centra en el diseño y validación de un nuevo índice de riesgo integrado de incendios, especialmente adaptado a la región mediterránea y que facilite el proceso de toma de decisiones en la distribución diaria de los medios de vigilancia contra incendios forestales. El índice adopta el enfoque de riesgo integrado introducido en la última década y que incluye dos componentes de riesgo: el peligro de ignición y la vulnerabilidad. El primero representa la probabilidad de que se inicie un fuego y el peligro potencial para que se propague, mientras que la vulnerabilidad tiene en cuenta las características del territorio y los efectos potenciales del fuego sobre el mismo. Para el cálculo del peligro potencial se han identificado indicadores relativos a los agentes naturales y humanos causantes de incendios, la ocurrencia histórica y el estado de los combustibles, extremo muy relacionado con la meteorología y las especies. En cuanto a la vulnerabilidad se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructuras de defensa), como de las características del terreno (valor, capacidad de regeneración…). Todos estos indicadores constituyen una estructura jerárquica en la que, siguiendo las recomendaciones de la Comisión europea para índices de riesgo de incendios, se han incluido indicadores representativos del riesgo a corto plazo y a largo plazo. El cálculo del valor final del índice se ha llevado a cabo mediante la progresiva agregación de los componentes que forman cada uno de los niveles de la estructura jerárquica del índice y su integración final. Puesto que las técnicas de decisión multicriterio están especialmente orientadas a tratar con problemas basados en estructuras jerárquicas, se ha aplicado el método TOPSIS para obtener la integración final del modelo. Se ha introducido en el modelo la opinión de los expertos, mediante la ponderación de cada uno de los componentes del índice. Se ha utilizado el método AHP, para obtener las ponderaciones de cada experto y su integración en un único peso por cada indicador. Para la validación del índice se han empleado los modelos de Ecuaciones de Estimación Generalizadas, que tienen en cuenta posibles respuestas correlacionadas. Para llevarla a cabo se emplearon los datos de oficiales de incendios ocurridos durante el período 1994 al 2003, referenciados a una cuadrícula de 10x10 km empleando la ocurrencia de incendios y su superficie, como variables dependientes. Los resultados de la validación muestran un buen funcionamiento del subíndice de peligro de ocurrencia con un alto grado de correlación entre el subíndice y la ocurrencia, un buen ajuste del modelo logístico y un buen poder discriminante. Por su parte, el subíndice de vulnerabilidad no ha presentado una correlación significativa entre sus valores y la superficie de los incendios, lo que no descarta su validez, ya que algunos de sus componentes tienen un carácter subjetivo, independiente de la superficie incendiada. En general el índice presenta un buen funcionamiento para la distribución de los medios de vigilancia en función del peligro de inicio. No obstante, se identifican y discuten nuevas líneas de investigación que podrían conducir a una mejora del ajuste global del índice. En concreto se plantea la necesidad de estudiar más profundamente la aparente correlación que existe en la provincia de Valencia entre la superficie forestal que ocupa cada cuadrícula de 10 km del territorio y su riesgo de incendios y que parece que a menor superficie forestal, mayor riesgo de incendio. Otros aspectos a investigar son la sensibilidad de los pesos de cada componente o la introducción de factores relativos a los medios potenciales de extinción en el subíndice de vulnerabilidad. Summary Forest fires are the main cause of tree mortality in Mediterranean Europe and the most serious threat to the Spanisf forest. In the Spanish autonomous region of Valencia, forest administration deploys a mobile fleet of 100 surveillance vehicles in forest land whose allocation is based on meteorological index of wildlandfire risk. This thesis is focused on the design and validation of a new Integrated Wildland Fire Risk Index proposed to efficient allocation of vehicles and specially adapted to the Mediterranean conditions. Following the approaches of integrated risk developed last decade, the index includes two risk components: Wildland Fire Danger and Vulnerability. The former represents the probability a fire ignites and the potential hazard of fire propagation or spread danger, while vulnerability accounts for characteristics of the land and potential effects of fire. To calculate the Wildland Fire Danger, indicators of ignition and spread danger have been identified, including human and natural occurrence agents, fuel conditions, historical occurrence and spread rate. Regarding vulnerability se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructurasd de defensa), como de las características del terreno (valor, capacidad de regeneración…). These indicators make up the hierarchical structure for the index, which, following the criteria of the European Commission both short and long-term indicators have been included. Integration consists of the progressive aggregation of the components that make up every level in risk the index and, after that, the integration of these levels to obtain a unique value for the index. As Munticriteria methods are oriented to deal with hierarchically structured problems and with situations in which conflicting goals prevail, TOPSIS method is used in the integration of components. Multicriteria methods were also used to incorporate expert opinion in weighting of indicators and to carry out the aggregation process into the final index. The Analytic Hierarchy Process method was used to aggregate experts' opinions on each component into a single value. Generalized Estimation Equations, which account for possible correlated responses, were used to validate the index. Historical records of daily occurrence for the period from 1994 to 2003, referred to a 10x10-km-grid cell, as well as the extent of the fires were the dependant variables. The results of validation showed good Wildland Fire Danger component performance, with high correlation degree between Danger and occurrence, a good fit of the logistic model used and a good discrimination power. The vulnerability component has not showed a significant correlation between their values and surface fires, which does not mean the index is not valid, because of the subjective character of some of its components, independent of the surface of the fires. Overall, the index could be used to optimize the preventing resources allocation. Nevertheless, new researching lines are identified and discussed to improve the overall performance of the index. More specifically the need of study the inverse relationship between the value of the wildfire Fire Danger component and the forested surface of each 10 - km cell is set out. Other points to be researched are the sensitivity of the index component´s weight and the possibility of taking into account indicators related to fire fighting resources to make up the vulnerability component.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Analysis of river flow using hydraulic modelling and its implications in derived environ-mental applications are inextricably connected with the way in which the river boundary shape is represented. This relationship is scale-dependent upon the modelling resolution which in turn determines the importance of a subscale performance of the model and the way subscale (surface and flow) processes are parameterised. Commonly, the subscale behaviour of the model relies upon a roughness parameterisation whose meaning depends on the dimensionality of the hydraulic model and the resolution of the topographic represen¬tation scale. This latter is, in turn, dependent on the resolution of the computational mesh as well as on the detail of measured topographic data. Flow results are affected by this interactions between scale and subscale parameterisation according to the dimensionality approach. The aim of this dissertation is the evaluation of these interactions upon hy¬draulic modelling results. Current high resolution topographic source availability induce this research which is tackled using a suitable roughness approach according to each di¬mensionality with the purpose of the interaction assessment. A 1D HEC-RAS model, a 2D raster-based diffusion-wave model with a scale-dependent distributed roughness parame-terisation and a 3D finite volume scheme with a porosity algorithm approach to incorporate complex topography have been used. Different topographic sources are assessed using a 1D scheme. LiDAR data are used to isolate the mesh resolution from the topographic content of the DEM effects upon 2D and 3D flow results. A distributed roughness parameterisation, using a roughness height approach dependent upon both mesh resolution and topographic content is developed and evaluated for the 2D scheme. Grain-size data and fractal methods are used for the reconstruction of topography with microscale information, required for some applications but not easily available. Sensitivity of hydraulic parameters to this topographic parameterisation is evaluated in a 3D scheme at different mesh resolu¬tions. Finally, the structural variability of simulated flow is analysed and related to scale interactions. Model simulations demonstrate (i) the importance of the topographic source in a 1D models; (ii) the mesh resolution approach is dominant in 2D and 3D simulations whereas in a 1D model the topographic source and even the roughness parameterisation impacts are more critical; (iii) the increment of the sensitivity to roughness parameterisa-tion in 1D and 2D schemes with detailed topographic sources and finer mesh resolutions; and (iv) the topographic content and microtopography impact throughout the vertical profile of computed 3D velocity in a depth-dependent way, whereas 2D results are not affected by topographic content variations. Finally, the spatial analysis shows that the mesh resolution controls high resolution model scale results, roughness parameterisation control 2D simulation results for a constant mesh resolution; and topographic content and micro-topography variations impacts upon the organisation of flow results depth-dependently in a 3D scheme. Resumen La topografía juega un papel fundamental en la distribución del agua y la energía en los paisajes naturales (Beven and Kirkby 1979; Wood et al. 1997). La simulación hidráulica combinada con métodos de medición del terreno por teledetección constituyen una poderosa herramienta de investigación en la comprensión del comportamiento de los flujos de agua debido a la variabilidad de la superficie sobre la que fluye. La representación e incorporación de la topografía en el esquema hidráulico tiene una importancia crucial en los resultados y determinan el desarrollo de sus aplicaciones al campo medioambiental. Cualquier simulación es una simplificación de un proceso del mundo real, y por tanto el grado de simplificación determinará el significado de los resultados simulados. Este razonamiento es particularmente difícil de trasladar a la simulación hidráulica donde aspectos de la escala tan diferentes como la escala de los procesos de flujo y de representación del contorno son considerados conjuntamente incluso en fases de parametrización (e.g. parametrización de la rugosidad). Por una parte, esto es debido a que las decisiones de escala vienen condicionadas entre ellas (e.g. la dimensionalidad del modelo condiciona la escala de representación del contorno) y por tanto interaccionan en sus resultados estrechamente. Y por otra parte, debido a los altos requerimientos numéricos y computacionales de una representación explícita de alta resolución de los procesos de flujo y discretización de la malla. Además, previo a la modelización hidráulica, la superficie del terreno sobre la que el agua fluye debe ser modelizada y por tanto presenta su propia escala de representación, que a su vez dependerá de la escala de los datos topográficos medidos con que se elabora el modelo. En última instancia, esta topografía es la que determina el comportamiento espacial del flujo. Por tanto, la escala de la topografía en sus fases de medición y modelización (resolución de los datos y representación topográfica) previas a su incorporación en el modelo hidráulico producirá a su vez un impacto que se acumulará al impacto global resultante debido a la escala computacional del modelo hidráulico y su dimensión. La comprensión de las interacciones entre las complejas geometrías del contorno y la estructura del flujo utilizando la modelización hidráulica depende de las escalas consideradas en la simplificación de los procesos hidráulicos y del terreno (dimensión del modelo, tamaño de escala computacional y escala de los datos topográficos). La naturaleza de la aplicación del modelo hidráulico (e.g. habitat físico, análisis de riesgo de inundaciones, transporte de sedimentos) determina en primer lugar la escala del estudio y por tanto el detalle de los procesos a simular en el modelo (i.e. la dimensionalidad) y, en consecuencia, la escala computacional a la que se realizarán los cálculos (i.e. resolución computacional). Esta última a su vez determina, el detalle geográfico con que deberá representarse el contorno acorde con la resolución de la malla computacional. La parametrización persigue incorporar en el modelo hidráulico la cuantificación de los procesos y condiciones físicas del sistema natural y por tanto debe incluir no solo aquellos procesos que tienen lugar a la escala de modelización, sino también aquellos que tienen lugar a un nivel subescalar y que deben ser definidos mediante relaciones de escalado con las variables modeladas explícitamente. Dicha parametrización se implementa en la práctica mediante la provisión de datos al modelo, por tanto la escala de los datos geográficos utilizados para parametrizar el modelo no sólo influirá en los resultados, sino también determinará la importancia del comportamiento subescalar del modelo y el modo en que estos procesos deban ser parametrizados (e.g. la variabilidad natural del terreno dentro de la celda de discretización o el flujo en las direcciones laterales y verticales en un modelo unidimensional). En esta tesis, se han utilizado el modelo unidimensional HEC-RAS, (HEC 1998b), un modelo ráster bidimensional de propagación de onda, (Yu 2005) y un esquema tridimensional de volúmenes finitos con un algoritmo de porosidad para incorporar la topografía, (Lane et al. 2004; Hardy et al. 2005). La geometría del contorno viene definida por la escala de representación topográfica (resolución de malla y contenido topográfico), la cual a su vez depende de la escala de la fuente cartográfica. Todos estos factores de escala interaccionan en la respuesta del modelo hidráulico a la topografía. En los últimos años, métodos como el análisis fractal y las técnicas geoestadísticas utilizadas para representar y analizar elementos geográficos (e.g. en la caracterización de superficies (Herzfeld and Overbeck 1999; Butler et al. 2001)), están promoviendo nuevos enfoques en la cuantificación de los efectos de escala (Lam et al. 2004; Atkinson and Tate 2000; Lam et al. 2006) por medio del análisis de la estructura espacial de la variable (e.g. Bishop et al. 2006; Ju et al. 2005; Myint et al. 2004; Weng 2002; Bian and Xie 2004; Southworth et al. 2006; Pozd-nyakova et al. 2005; Kyriakidis and Goodchild 2006). Estos métodos cuantifican tanto el rango de valores de la variable presentes a diferentes escalas como la homogeneidad o heterogeneidad de la variable espacialmente distribuida (Lam et al. 2004). En esta tesis, estas técnicas se han utilizado para analizar el impacto de la topografía sobre la estructura de los resultados hidráulicos simulados. Los datos de teledetección de alta resolución y técnicas GIS también están siendo utilizados para la mejor compresión de los efectos de escala en modelos medioambientales (Marceau 1999; Skidmore 2002; Goodchild 2003) y se utilizan en esta tesis. Esta tesis como corpus de investigación aborda las interacciones de esas escalas en la modelización hidráulica desde un punto de vista global e interrelacionado. Sin embargo, la estructura y el foco principal de los experimentos están relacionados con las nociones espaciales de la escala de representación en relación con una visión global de las interacciones entre escalas. En teoría, la representación topográfica debe caracterizar la superficie sobre la que corre el agua a una adecuada (conforme a la finalidad y dimensión del modelo) escala de discretización, de modo que refleje los procesos de interés. La parametrización de la rugosidad debe de reflejar los efectos de la variabilidad de la superficie a escalas de más detalle que aquellas representadas explícitamente en la malla topográfica (i.e. escala de discretización). Claramente, ambos conceptos están físicamente relacionados por un

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo de la presente tesis doctoral es el desarrollo e implementación de un sistema para mejorar la metodología de extracción de la información geométrica necesaria asociada a los procesos de documentación de entidades de interés patrimonial, a partir de la información proporcionada por el empleo de sensores láser, tanto aéreos como terrestres. Para ello, inicialmente se realiza una presentación y justificación de los antecedentes y la problemática en el registro de información geométrica para el patrimonio, detallando todos aquellos sistemas de registro y análisis de la información geométrica utilizados en la actualidad. Este análisis permitirá realizar la comparación con los sistemas de registro basados en técnicas láser, aportando sugerencias de utilización para cada caso concreto. Posteriormente, se detallan los sistemas de registro basados en técnicas láser, comenzando por los sensores aerotransportados y concluyendo con el análisis pormenorizado de los sensores terrestres, tanto en su aplicación en modo estático como móvil. Se exponen las características técnicas y funcionamiento de cada uno de ellos, así como los ámbitos de aplicación y productos generados. Se analizan las fuentes de error que determinan la precisión que puede alcanzar el sistema. Tras la exposición de las características de los sistemas LiDAR, se detallan los procesos a realizar con los datos extraídos para poder generar la información necesaria para los diferentes tipos de objetos analizados. En esta exposición, se hace hincapié en los posibles riesgos que pueden ocurrir en algunas fases delicadas y se analizarán los diferentes algoritmos de filtrado y clasificación de los puntos, fundamentales en el procesamiento de la información LiDAR. Seguidamente, se propone una alternativa para optimizar los modelos de procesamiento existentes, basándose en el desarrollo de algoritmos nuevos y herramientas informáticas que mejoran el rendimiento en la gestión de la información LiDAR. En la implementación, se han tenido en cuenta características y necesidades particulares de la documentación de entidades de interés patrimonial, así como los diferentes ámbitos de utilización del LiDAR, tanto aéreo como terrestre. El resultado es un organigrama de las tareas a realizar desde la nube de puntos LiDAR hasta el cálculo de los modelos digitales del terreno y de superficies. Para llevar a cabo esta propuesta, se han desarrollado hasta 19 algoritmos diferentes que comprenden implementaciones para el modelado en 2.5D y 3D, visualización, edición, filtrado y clasificación de datos LiDAR, incorporación de información de sensores pasivos y cálculo de mapas derivados, tanto raster como vectoriales, como pueden ser mapas de curvas de nivel y ortofotos. Finalmente, para dar validez y consistencia a los desarrollos propuestos, se han realizado ensayos en diferentes escenarios posibles en un proceso de documentación del patrimonio y que abarcan desde proyectos con sensores aerotransportados, proyectos con sensores terrestres estáticos a media y corta distancia, así como un proyecto con un sensor terrestre móvil. Estos ensayos han permitido definir los diferentes parámetros necesarios para el adecuado funcionamiento de los algoritmos propuestos. Asimismo, se han realizado pruebas objetivas expuestas por la ISPRS para la evaluación y comparación del funcionamiento de algoritmos de clasificación LiDAR. Estas pruebas han permitido extraer datos de rendimiento y efectividad del algoritmo de clasificación presentado, permitiendo su comparación con otros algoritmos de prestigio existentes. Los resultados obtenidos han constatado el funcionamiento satisfactorio de la herramienta. Esta tesis está enmarcada dentro del proyecto Consolider-Ingenio 2010: “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) realizado por el Consejo Superior de Investigaciones Científicas y la Universidad Politécnica de Madrid. ABSTRACT: The goal of this thesis is the design, development and implementation of a system to improve the extraction of useful geometric information in Heritage documentation processes. This system is based on information provided by laser sensors, both aerial and terrestrial. Firstly, a presentation of recording geometric information for Heritage processes is done. Then, a justification of the background and problems is done too. Here, current systems for recording and analyzing the geometric information are studied. This analysis will perform the comparison with the laser system techniques, providing suggestions of use for each specific case. Next, recording systems based on laser techniques are detailed. This study starts with airborne sensors and ends with terrestrial ones, both in static and mobile application. The technical characteristics and operation of each of them are described, as well as the areas of application and generated products. Error sources are also analyzed in order to know the precision this technology can achieve. Following the presentation of the LiDAR system characteristics, the processes to generate the required information for different types of scanned objects are described; the emphasis is on the potential risks that some steps can produce. Moreover different filtering and classification algorithms are analyzed, because of their main role in LiDAR processing. Then, an alternative to optimize existing processing models is proposed. It is based on the development of new algorithms and tools that improve the performance in LiDAR data management. In this implementation, characteristics and needs of the documentation of Heritage entities have been taken into account. Besides, different areas of use of LiDAR are considered, both air and terrestrial. The result is a flowchart of tasks from the LiDAR point cloud to the calculation of digital terrain models and digital surface models. Up to 19 different algorithms have been developed to implement this proposal. These algorithms include implementations for 2.5D and 3D modeling, viewing, editing, filtering and classification of LiDAR data, incorporating information from passive sensors and calculation of derived maps, both raster and vector, such as contour maps and orthophotos. Finally, in order to validate and give consistency to the proposed developments, tests in different cases have been executed. These tests have been selected to cover different possible scenarios in the Heritage documentation process. They include from projects with airborne sensors, static terrestrial sensors (medium and short distances) to mobile terrestrial sensor projects. These tests have helped to define the different parameters necessary for the appropriate functioning of the proposed algorithms. Furthermore, proposed tests from ISPRS have been tested. These tests have allowed evaluating the LiDAR classification algorithm performance and comparing it to others. Therefore, they have made feasible to obtain performance data and effectiveness of the developed classification algorithm. The results have confirmed the reliability of the tool. This investigation is framed within Consolider-Ingenio 2010 project titled “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) by Consejo Superior de Investigaciones Científicas and Universidad Politécnica de Madrid.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El retroceso de las costas acantiladas es un fenómeno muy extendido sobre los litorales rocosos expuestos a la incidencia combinada de los procesos marinos y meteorológicos que se dan en la franja costera. Este fenómeno se revela violentamente como movimientos gravitacionales del terreno esporádicos, pudiendo causar pérdidas materiales y/o humanas. Aunque el conocimiento de estos riesgos de erosión resulta de vital importancia para la correcta gestión de la costa, su predicción es complicada. Los modelos de predicción publicados son escasos y con importantes inconvenientes: extrapolación, extienden información registros históricos; empíricos, sobre registros históricos estudian respuesta al cambio de un parámetro; estocásticos, determinan la cadencia y magnitud de los eventos futuros extrapolando las distribuciones de probabilidad extraídas de catálogos históricos; proceso-respuesta, de estabilidad y propagación del error inexplorada; en EDPs, computacionalmente costosos y poco exactos. En este trabajo se desarrolla un modelo combinado de proceso-respuesta basado en incorporar un balance de fuerzas de los mecanismos que actúan sobre el proceso erosivo en el frente del acantilado. El modelo simula la evolución espacio-temporal de un perfil-2D del acantilado, formado por materiales heterogéneos, acoplando la dinámica marina con la evolución del terreno en cada periodo de marea. Integra en cada periodo una función de erosión, dependiente de la pendiente de la zona afectada, que se desplaza sobre la onda de marea. Se ha estudiado el error de discretización del modelo y su propagación en el tiempo a partir de las soluciones exactas para los dos primeros periodos de marea para diferentes aproximaciones numéricas en la integración y de la pendiente. Los resultados obtenidos han permitido justificar las discretizaciones que minimizan el error y los métodos de aproximación más adecuados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Validación de la cartografía generada del terreno a partir de una nuevo sistema de validación propuesto

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente proyecto desarrolla el diseño de un central de ciclo combinado de 800MW de potencia nominal y establece los parámetros para su construcción. La central se ha diseñado con una configuración 1×1, es decir, turbina de gas, generador y turbina de vapor engranadas en un mismo eje, constituyendo un grupo de potencia de 400MW. La central se compone de dos de estos grupos, alimentado cada uno por una caldera de recuperación. La evacuación de gases de combustión se efectúa por medio de una chimenea de 13m de diámetro interior y 80m de altura, fabricada en hormigón armado. El circuito de refrigeración abierto, vertiendo directamente el agua de refrigeración al mar, se ha diseñado para producir un impacto mínimo sobre el medio marino. Se ha proyectado para aprovechar todo lo posible las estructuras existentes en el emplazamiento, pertenecientes a la construcción de la Central Nuclear de Lemóiz. No se ha considerado necesario para la construcción de la central demoler los edificios de la central nuclear, por haber espacio suficiente en la explanada adyacente. Se reducen así los costes de acondicionamiento del terreno.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La evolución de la maquinaria agrícola en el siglo XX ha sido tan espectacular que, de los tres grandes avances habidos a lo largo de la historia de la maquinaria agrícola, dos de ellos podemos considerar que marcan el comienzo y el fin del siglo XX. El primer avance fundamental se dio el día en que el hombre que removía la tierra golpeándola con una herramienta tipo azada decidió avanzar con ella introducida en el suelo venciendo la fuerza de tiro. Nació así el arado en un tiempo indeterminado de la prehistoria. Esa primera máquina y las pocas que en muchos siglos después se diseñaron para trabajar la tierra estaban accionadas por esfuerzo muscular, ya fuera el del hombre o de los animales de tiro. El siguiente paso decisivo, que libra al hombre de la necesidad de contar con fuerza muscular para trabajar el campo, se dio al aplicar a la agricultura la energía generada por motores que consumen combustibles. Aunque a lo largo del siglo XIX se construyeron máquinas de vapor estacionarias denominadas locomóviles que, mediante un juego de cables y poleas, conseguían tirar de los arados, su uso fue escaso y los agricultores no se libraron de seguir con su collera de muías o yunta de bueyes. Sin embargo, la construcción del primer tractor con motor de combustión interna, debida a Froelich en 1892, marca el inicio de la actual tractorización. A partir de ese momento, tanto el tamaño de las máquinas como el de la superficie trabajada por un agricultor pueden crecer, porque es la energía desarrollada por un motor la que realiza los esfuerzos necesarios. Esta fecha de 1892 podemos considerarla el inicio del siglo XX en maquinaria agrícola. Por último, en época reciente estamos asistiendo al empleo de dispositivos electrónicos e informáticos en las máquinas, los cuales miden diversas variables relativas al trabajo que desarrolla, guardan la información en registros e, incluso, deciden cómo debe comandarse la máquina. No sólo estamos liberados de realizar esfuerzos, sino también de mantener toda nuestra atención en el trabajo y tomar decisiones en función de las características del terreno, cultivo, etc. Estas técnicas, que a nivel de investigación y prototipo existen desde los años 90, marcan el inicio del siglo XXI en el que es de esperar que se difundan. Por tanto, ya tenemos encuadrado el siglo XX como el periodo comprendido desde que el esfuerzo para trabajar la tierra deja de ser muscular hasta que el cerebro que toma las decisiones podrá dejar de ser humano.