62 resultados para MODELOS DE EVALUACIÓN


Relevância:

30.00% 30.00%

Publicador:

Resumo:

(SPA) La elección de localizaciones para la implantación de actividades industriales es un problema complejo, donde a los criterios de coste y eficiencia se han ido añadiendo otros nuevos relativos tanto al impacto en el medio ambiente como a la imagen de la empresa reflejada en la Responsabilidad Social Empresarial. Los criterios medioambientales han ido adquiriendo gran relevancia en la decisión final, hasta convertirse, gracias a la obligación de someter los proyectos a evaluación ambiental, en elementos clave en la decisión final. Por ello, resulta relativamente frecuente que los promotores consulten previamente con la Administración sobre la viabilidad de sus proyectos antes de iniciar un dilatado procedimiento administrativo. En este trabajo se plantea la utilización de indicadores de sostenibilidad y su aplicación, a través de un modelo de decisiones multicriterio, para la ordenación de las distintas opciones de ubicación inicialmente consideradas, de tal forma que se conviertan en instrumento de tanteo y ayuda en la toma de estas decisiones. Para mostrar su utilidad se propone la utilización de la herramienta de apoyo basada en la metodología PROMETHEE y su aplicación en la ordenación de cinco emplazamientos alternativos para la instalación de una cementera en la Comunidad de Madrid según criterios de sostenibilidad. (ENG) The choice of locations for the implementation of industrial activities is a complex problem where the cost and efficiency criteria have been adding new ones relating to the environment impact and the company’s corporate image reflected in Corporate Social Responsability. The environmental criteria have been getting big importance in the final decision, to become key elements in the final decision, due to the duty of submit of environmental assessment projects. Therefore, promoters, quite often, ask previously to the Administration about the viability of their projects before starting a lengthy administrative procedure. This paper proposes the use of sustainability indicators and their application through a multi-criteria decision model for managing the establishment options initially considered, so that they become an help instrument of estimation in order to making these decisions. To show its usefulness we propose the use of the support tool for decision making based on the PROMETHEE methodology and its application in the management of 5 alternative sites for the installation of a cement factory in the Community of Madrid under sustainability criteria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En personas que padecen una Lesión Medular cervical, la función de los miembros superiores se ve afectada en mayor o menor medida, dependiendo fundamentalmente del nivel de la lesión y de la severidad de la misma. El déficit en la función del miembro superior hace que la autonomía e independencia de las personas se vea reducida en la ejecución de Actividades de la Vida Diaria. En el entorno clínico, la valoración de la función del miembro superior se realiza principalmente con escalas clínicas. Algunas de ellas valoran el nivel de dependencia o independencia en la ejecución de Actividades de la Vida Diaria, como, por ejemplo, el índice de Barthel y la escala FIM (Medida de la Independencia Funcional). Otras escalas, como Jebsen-Taylor Hand Function, miden la función del miembro superior valorando la destreza y la habilidad en la ejecución de determinadas tareas funcionales. Estas escalas son generales, es decir, se pueden aplicar a distintas poblaciones de sujetos y a la presencia de distintas patologías. Sin embargo, existen otras escalas desarrolladas específicamente para valorar una patología concreta, con el objetivo de hacer las evaluaciones funcionales más sensibles a cambios. Un ejemplo es la escala Spinal Cord Independence Measure (SCIM), desarrollada para valorar Lesión Medular. Las escalas clínicas son instrumentos de medida estandarizados, válidos para su uso en el entorno clínico porque se han validado en muestras grandes de pacientes. No obstante, suelen poseer una elevada componente de subjetividad que depende principalmente de la persona que puntúa el test. Otro aspecto a tener en cuenta, es que la sensibilidad de las escalas es alta, fundamentalmente, a cambios groseros en el estado de salud o en la función del miembro superior, de forma que cambios sutiles en el sujeto pueden no ser detectados. Además, en ocasiones, poseen saturaciones en el sistema de puntuación, de forma que mejorías que se puedan producir por encima de un determinado umbral no son detectadas. En definitiva, estas limitaciones hacen que las escalas clínicas no sean suficientes, por sí mismas, para evaluar estrategias motoras del miembro superior durante la ejecución de movimientos funcionales, siendo necesaria la búsqueda de instrumentos de medida que aporten objetividad, complementen las valoraciones y, al mismo tiempo, intenten solventar las limitaciones que poseen las escalas. Los estudios biomecánicos son ejemplos de métodos objetivos, en los que diversas tecnologías se pueden utilizar para recoger información de los sujetos. Una concreción de estos estudios son los estudios cinemáticos. Mediante tecnología optoelectrónica, inercial o electromagnética, estos estudios proporcionan información objetiva acerca del movimiento realizado por los sujetos, durante la ejecución de tareas concretas. Estos sistemas de medida proporcionan grandes cantidades de datos que carecen de una interpretación inmediata. Estos datos necesariamente deben ser tratados y reducidos a un conjunto de variables que, a priori, posean una interpretación más sencilla para ser utilizados en la práctica clínica. Estas han sido las principales motivaciones de esta investigación. El objetivo principal fue proponer un conjunto de índices cinemáticos que, de forma objetiva, valoren la función del miembro superior; y validar los índices propuestos en poblaciones con Lesión Medular, para su uso como instrumentos de valoración en el entorno clínico. Esta tesis se enmarca dentro de un proyecto de investigación: HYPER (Hybrid Neuroprosthetic and Neurorobotic Devices for Functional Compensation and Rehabilitation of Motor Disorders, referencia CSD2009-00067 CONSOLIDER INGENIO 2010). Dentro de este proyecto se lleva a cabo investigación en el desarrollo de modelos, para determinar los requisitos biomecánicos y los patrones de movimiento de los miembros superiores en sujetos sanos y personas con lesión medular. Además, se realiza investigación en la propuesta de nuevos instrumentos de evaluación funcional en el campo de la rehabilitación de los miembros superiores. ABSTRACT In people who have suffered a cervical Spinal Cord Injury, upper limbs function is affected to a greater or lesser extent, depending primarily on the level of the injury and the severity of it. The deficit in the upper limb function reduces the autonomy and independence of persons in the execution of Activities of Daily Living. In the clinical setting, assessment of upper limb function is mainly performed based on clinical scales. Some value the level of dependence or independence in performing activities of daily living, such as the Barthel Index and the FIM scale (Functional Independence Measure). Other scales, such as the Jebsen-Taylor Hand Function, measure upper limb function in terms of the skill and ability to perform specific functional tasks. These scales are general, so can be applied to different populations of subjects and the presence of different pathologies. However, there are other scales developed for a specific injury, in order to make the functional assessments more sensitive to changes. An example is the Spinal Cord Independence Measure (SCIM), developed for people with Spinal Cord Injury. The clinical scales are standardized instruments measure, valid for use in the clinical setting because they have been validated in large patient samples. However, they usually have a high level of subjectivity which mainly depends on the person who scores the test. Another aspect to take into account is the high sensitivity of the scales mainly to gross changes in the health status or upper limb function, so that subtle changes in the subject may not be detected. Moreover, sometimes, have saturations in the scoring system, so that improvements which may occur above a certain threshold are not detected. For these reasons, clinical scales are not enough, by themselves, to assess motor strategies used during movements. So, it’s necessary to find measure instruments that provide objectivity, supplement the assessments and, at the same time, solving the limitations that scales have. Biomechanical studies are examples of objective methods, in which several technologies can be used to collect information from the subjects. One kind of these studies is the kinematic movement analysis. By means of optoelectronics, inertial and electromagnetic technology, these studies provide objective information about the movement performed by the subjects during the execution of specific tasks. These systems provide large quantities of data without easy and intuitive interpretation. These data must necessarily be treated and reduced to a set of variables that, a priori, having a simpler interpretation for their use in the clinical practice. These were the main motivations of this research. The main objective was to propose a set of kinematic indices, or metrics that, objectively, assess the upper limb function and validate the proposed rates in populations with Spinal Cord Injury, for use as assessment tools in the clinical setting. This dissertation is framed within a research project: HYPER (Neurorobotic Devices for Functional Compensation and Rehabilitation of Motor Disorders, grant CSD2009- 00067 CONSOLIDER INGENIO 2010). Within this research project, research is conducted in relation to the biomechanical models development for determining the biomechanical requirements and movement patterns of the upper limb in healthy and people with Spinal Cord Injury. Moreover, research is conducted with respect to the proposed of new functional assessment instruments in the field of upper limb rehabilitation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La teledetección o percepción remota (remote sensing) es la ciencia que abarca la obtención de información (espectral, espacial, temporal) sobre un objeto, área o fenómeno a través del análisis de datos adquiridos por un dispositivo que no está en contacto con el elemento estudiado. Los datos obtenidos a partir de la teledetección para la observación de la superficie terrestre comúnmente son imágenes, que se caracterizan por contar con un sinnúmero de aplicaciones que están en continua evolución, por lo cual para solventar los constantes requerimientos de nuevas aplicaciones a menudo se proponen nuevos algoritmos que mejoran o facilitan algún proceso en particular. Para el desarrollo de dichos algoritmos, es preciso hacer uso de métodos matemáticos que permitan la manipulación de la información con algún fin específico. Dentro de estos métodos, el análisis multi-resolución se caracteriza por permitir analizar una señal en diferentes escalas, lo que facilita trabajar con datos que puedan tener resoluciones diferentes, tal es el caso de las imágenes obtenidas mediante teledetección. Una de las alternativas para la implementación de análisis multi-resolución es la Transformada Wavelet Compleja de Doble Árbol (DT-CWT). Esta transformada se implementa a partir de dos filtros reales y se caracteriza por presentar invariancia a traslaciones, precio a pagar por su característica de no ser críticamente muestreada. A partir de las características de la DT-CWT se propone su uso en el diseño de algoritmos de procesamiento de imagen, particularmente imágenes de teledetección. Estos nuevos algoritmos de procesamiento digital de imágenes de teledetección corresponden particularmente a fusión y detección de cambios. En este contexto esta tesis presenta tres algoritmos principales aplicados a fusión, evaluación de fusión y detección de cambios en imágenes. Para el caso de fusión de imágenes, se presenta un esquema general que puede ser utilizado con cualquier algoritmo de análisis multi-resolución; este algoritmo parte de la implementación mediante DT-CWT para luego extenderlo a un método alternativo, el filtro bilateral. En cualquiera de los dos casos la metodología implica que la inyección de componentes pueda realizarse mediante diferentes alternativas. En el caso del algoritmo de evaluación de fusión se presenta un nuevo esquema que hace uso de procesos de clasificación, lo que permite evaluar los resultados del proceso de fusión de forma individual para cada tipo de cobertura de uso de suelo que se defina en el proceso de evaluación. Esta metodología permite complementar los procesos de evaluación tradicionales y puede facilitar el análisis del impacto de la fusión sobre determinadas clases de suelo. Finalmente, los algoritmos de detección de cambios propuestos abarcan dos enfoques. El primero está orientado a la obtención de mapas de sequía en datos multi-temporales a partir de índices espectrales. El segundo enfoque propone la utilización de un índice global de calidad espectral como filtro espacial. La utilización de dicho filtro facilita la comparación espectral global entre dos imágenes, esto unido a la utilización de umbrales, conlleva a la obtención de imágenes diferencia que contienen la información de cambio. ABSTRACT Remote sensing is a science relates to information gathering (spectral, spatial, temporal) about an object, area or phenomenon, through the analysis of data acquired by a device that is not in contact with the studied item. In general, data obtained from remote sensing to observe the earth’s surface are images, which are characterized by having a number of applications that are constantly evolving. Therefore, to solve the constant requirements of applications, new algorithms are proposed to improve or facilitate a particular process. With the purpose of developing these algorithms, each application needs mathematical methods, such as the multiresolution analysis which allows to analyze a signal at different scales. One of the options is the Dual Tree Complex Wavelet Transform (DT-CWT) which is implemented from two real filters and is characterized by invariance to translations. Among the advantages of this transform is its successful application in image fusion and change detection areas. In this regard, this thesis presents three algorithms applied to image fusion, assessment for image fusion and change detection in multitemporal images. For image fusion, it is presented a general outline that can be used with any multiresolution analysis technique; this algorithm is proposed at first with DT-CWT and then extends to an alternative method, the bilateral filter. In either case the method involves injection of components by various means. For fusion assessment, the proposal is focused on a scheme that uses classification processes, which allows evaluating merger results individually for each type of land use coverage that is defined in evaluation process. This methodology allows complementing traditional assessment processes and can facilitate impact analysis of the merger on certain kinds of soil. Finally, two approaches of change detection algorithms are included. The first is aimed at obtaining drought maps in multitemporal data from spectral indices. The second one takes a global index of spectral quality as a spatial filter. The use of this filter facilitates global spectral comparison between two images and by means of thresholding, allows imaging containing change information.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En España existen del orden de 1,300 grandes presas, de las cuales un 20% fueron construidas antes de los años 60. El hecho de que existan actualmente una gran cantidad de presas antiguas aún en operación, ha producido un creciente interés en reevaluar su seguridad empleando herramientas nuevas o modificadas que incorporan modelos de fallo teóricos más completos, conceptos geotécnicos más complejos y nuevas técnicas de evaluación de la seguridad. Una manera muy común de abordar el análisis de estabilidad de presas de gravedad es, por ejemplo, considerar el deslizamiento a través de la interfase presa-cimiento empleando el criterio de rotura lineal de Mohr-Coulomb, en donde la cohesión y el ángulo de rozamiento son los parámetros que definen la resistencia al corte de la superficie de contacto. Sin embargo la influencia de aspectos como la presencia de planos de debilidad en el macizo rocoso de cimentación; la influencia de otros criterios de rotura para la junta y para el macizo rocoso (ej. el criterio de rotura de Hoek-Brown); las deformaciones volumétricas que ocurren durante la deformación plástica en el fallo del macizo rocoso (i.e., influencia de la dilatancia) no son usualmente consideradas durante el diseño original de la presa. En este contexto, en la presente tesis doctoral se propone una metodología analítica para el análisis de la estabilidad al deslizamiento de presas de hormigón, considerando un mecanismo de fallo en la cimentación caracterizado por la presencia de una familia de discontinuidades. En particular, se considera la posibilidad de que exista una junta sub-horizontal, preexistente y persistente en el macizo rocoso de la cimentación, con una superficie potencial de fallo que se extiende a través del macizo rocoso. El coeficiente de seguridad es entonces estimado usando una combinación de las resistencias a lo largo de los planos de rotura, cuyas resistencias son evaluadas empleando los criterios de rotura no lineales de Barton y Choubey (1977) y Barton y Bandis (1990), a lo largo del plano de deslizamiento de la junta; y el criterio de rotura de Hoek y Brown (1980) en su versión generalizada (Hoek et al. 2002), a lo largo del macizo rocoso. La metodología propuesta también considera la influencia del comportamiento del macizo rocoso cuando este sigue una ley de flujo no asociada con ángulo de dilatancia constante (Hoek y Brown 1997). La nueva metodología analítica propuesta es usada para evaluar las condiciones de estabilidad empleando dos modelos: un modelo determinista y un modelo probabilista, cuyos resultados son el valor del coeficiente de seguridad y la probabilidad de fallo al deslizamiento, respectivamente. El modelo determinista, implementado en MATLAB, es validado usando soluciones numéricas calculadas mediante el método de las diferencias finitas, empleando el código FLAC 6.0. El modelo propuesto proporciona resultados que son bastante similares a aquellos calculados con FLAC; sin embargo, los costos computacionales de la formulación propuesta son significativamente menores, facilitando el análisis de sensibilidad de la influencia de los diferentes parámetros de entrada sobre la seguridad de la presa, de cuyos resultados se obtienen los parámetros que más peso tienen en la estabilidad al deslizamiento de la estructura, manifestándose además la influencia de la ley de flujo en la rotura del macizo rocoso. La probabilidad de fallo es obtenida empleando el método de fiabilidad de primer orden (First Order Reliability Method; FORM), y los resultados de FORM son posteriormente validados mediante simulaciones de Monte Carlo. Los resultados obtenidos mediante ambas metodologías demuestran que, para el caso no asociado, los valores de probabilidad de fallo se ajustan de manera satisfactoria a los obtenidos mediante las simulaciones de Monte Carlo. Los resultados del caso asociado no son tan buenos, ya que producen resultados con errores del 0.7% al 66%, en los que no obstante se obtiene una buena concordancia cuando los casos se encuentran en, o cerca de, la situación de equilibrio límite. La eficiencia computacional es la principal ventaja que ofrece el método FORM para el análisis de la estabilidad de presas de hormigón, a diferencia de las simulaciones de Monte Carlo (que requiere de al menos 4 horas por cada ejecución) FORM requiere tan solo de 1 a 3 minutos en cada ejecución. There are 1,300 large dams in Spain, 20% of which were built before 1960. The fact that there are still many old dams in operation has produced an interest of reevaluate their safety using new or updated tools that incorporate state-of-the-art failure modes, geotechnical concepts and new safety assessment techniques. For instance, for gravity dams one common design approach considers the sliding through the dam-foundation interface, using a simple linear Mohr-Coulomb failure criterion with constant friction angle and cohesion parameters. But the influence of aspects such as the persistence of joint sets in the rock mass below the dam foundation; of the influence of others failure criteria proposed for rock joint and rock masses (e.g. the Hoek-Brown criterion); or the volumetric strains that occur during plastic failure of rock masses (i.e., the influence of dilatancy) are often no considered during the original dam design. In this context, an analytical methodology is proposed herein to assess the sliding stability of concrete dams, considering an extended failure mechanism in its rock foundation, which is characterized by the presence of an inclined, and impersistent joint set. In particular, the possibility of a preexisting sub-horizontal and impersistent joint set is considered, with a potential failure surface that could extend through the rock mass; the safety factor is therefore computed using a combination of strength along the rock joint (using the nonlinear Barton and Choubey (1977) and Barton and Bandis (1990) failure criteria) and along the rock mass (using the nonlinear failure criterion of Hoek and Brown (1980) in its generalized expression from Hoek et al. (2002)). The proposed methodology also considers the influence of a non-associative flow rule that has been incorporated using a (constant) dilation angle (Hoek and Brown 1997). The newly proposed analytical methodology is used to assess the dam stability conditions, employing for this purpose the deterministic and probabilistic models, resulting in the sliding safety factor and the probability of failure respectively. The deterministic model, implemented in MATLAB, is validated using numerical solution computed with the finite difference code FLAC 6.0. The proposed deterministic model provides results that are very similar to those computed with FLAC; however, since the new formulation can be implemented in a spreadsheet, the computational cost of the proposed model is significantly smaller, hence allowing to more easily conduct parametric analyses of the influence of the different input parameters on the dam’s safety. Once the model is validated, parametric analyses are conducting using the main parameters that describe the dam’s foundation. From this study, the impact of the more influential parameters on the sliding stability analysis is obtained and the error of considering the flow rule is assessed. The probability of failure is obtained employing the First Order Reliability Method (FORM). The probabilistic model is then validated using the Monte Carlo simulation method. Results obtained using both methodologies show good agreement for cases in which the rock mass has a nonassociate flow rule. For cases with an associated flow rule errors between 0.70% and 66% are obtained, so that the better adjustments are obtained for cases with, or close to, limit equilibrium conditions. The main advantage of FORM on sliding stability analyses of gravity dams is its computational efficiency, so that Monte Carlo simulations require at least 4 hours on each execution, whereas FORM requires only 1 to 3 minutes on each execution.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este documento es la descripción de una simulación de sistemas de vigilancia para la evaluación de herramientas de control de tráfico aéreo. Se pretende mostrar el desarrollo de un sistema radar en Modo S mediante una simulación por eventos discretos. Para ello, se ha desarrollado un software en lenguaje Java que incluye la simulación de trayectorias de aeronaves, métodos de obtención de posiciones, cambios entre los distintos sistemas de coordenadas, la simulación del barrido mecánico de un radar Modo S, así como modelos de cobertura y detección de aeronaves, creación de mensajes proporcionados mediante el enlace de datos Modo S (Downliked Airborne Parameters, DAP) que contienen información relevante para el control de tráfico aéreo, como pueden ser datos de velocidad o altura. Dentro del simulador del radar también se incluyen rutinas para la visualización en Matlab de los resultados obtenidos, lo que permite verificar las detecciones y ubicaciones de las aeronaves.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo constituye la simulación de un entorno para un sistema de separación de aeronaves basada en tiempos (TBS). El trabajo se divide en dos secciones: la generación de modelos atmosféricos, y la generación y simulación de trayectoria. Se pretende así recrear la ejecución de una maniobra de aproximación final en diferentes escenarios. La sección de generación de modelos atmosféricos es responsable de construir diferentes modelos de atmósfera, en los que poder obtener valores de presión, temperatura, viento y otras variables atmosféricas, para cualquier posición y tiempo deseados. La sección de generación y simulación de trayectoria se centra en la maniobra de aproximación final a pista, construyendo una trayectoria típica de aproximación final. Después, utilizando los datos atmosféricos de la primera sección, se realiza una simulación de una aeronave realizando dicha aproximación final, obteniéndose todos los datos relativos a velocidades respecto al aire y respecto a tierra, posiciones, tiempo transcurrido, etc. Como resultado, se obtiene información sobre la ejecución de la maniobra de aproximación final. Esta información es sensible a las variaciones de las condiciones atmosféricas de la simulación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una de las principales preocupaciones a la hora de realizar cualquier proyecto de ingeniería es la adecuada determinación de los hidrogramas de avenida de los cursos de agua que lo afecten. Hoy en día es posible la simulación de modelos hidrológicos complejos de lluvia directa sobre malla 2D de elementos finitos, empleando los avances en cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo), sin la necesidad de determinar subcuencas y tránsitos (como en HEC-HMS). Con los datos que ofrecen los Modelos Digitales del Terreno GRID del PNOA español (Plan Nacional de Ortofotografía Aérea) con precisión de 5 x 5 m y las Coberturas del Terreno SIG CORINE (Coordinación de Información del Medio Ambiente), que permite la evaluación de la rugosidad del suelo, se tiene la información necesaria para construir fácilmente este tipo de modelos. En este documento se presenta un procedimiento para delimitar fácilmente los cursos de agua principales y disponer en estas zonas un tamaño más pequeño de los elementos de la malla. El método propuesto permite una mejor definición de estas áreas después de unas pocas iteraciones, acelerando por tanto el proceso de construcción del modelo sin comprometer la calidad de los resultados. Para demostrar el método, se modelizaron dos cuencas completas mediante lluvia directa sobre una malla de elementos 2D. Se ensayaron diferentes niveles de precisión (variando el número de elementos) y se incluyeron dos presas, usando los datos del Modelo Digital del Terreno del PNOA. También se completó el cálculo hidrológico de ambas mediante HEC-HMS. En primer lugar se estudió la cuenca del río Zapardiel (cuenca del Duero, con superficie total de 1.450 km2, no presenta regulación artificial, pero sí algunas áreas de almacenamiento naturales). La segunda cuenca ensayada correspondió al río Zújar (cuenca del Guadiana, con superficie total de 8.500 km2, que incluye dos grandes presas: La Serena, con una capacidad de 3.200 hm3 y el Embalse del Zújar, situado aguas abajo de la primera, con un volumen útil de 300 hm3). Los resultados confirmaron que la forma de modelizar clásica con enfoque de subcuencas y tránsitos (tipo HEC-HMS) puede ser reemplazada por simulaciones de lluvia directa sobre malla 2D, por lo tanto reduciendo la incertidumbre inherente en la estimación de tiempos de concentración de subcuencas y parámetros de tránsito. Gracias a la disponibilidad de datos públicos de GRID PNOA y cobertura del terreno CORINE, actualmente es posible construir modelos de mallas de elementos 2D para simular lluvia directa sobre cuenca sin necesidad de costosos levantamientos topográficos. Con el hardware disponible hoy en día en ordenadores de uso general, se puede establecer un límite superior razonable para mallas 2D de 4 millones de elementos, lo que permite la correcta simulación de la lluvia directa en cuencas de hasta 10.000 km2. Para cuencas más grandes, este proceso se podría aplicar de forma repetida a varias zonas más pequeñas o en sucesivas secciones de la cuenca.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se propone una metodología para la evaluación de soluciones constructivas de fachada para la rehabilitación de viviendas sociales, construidas entre el final de la Guerra Civil y la entrada en vigor de la norma básica NBE-CT-79, sobre condiciones térmicas en edificios. La metodología parte por un lado del análisis del estado actual en las viviendas, y por otro de la caracterización de las soluciones constructivas de rehabilitación, para la evaluación conjunta de las posibles mejoras. Esta evaluación persigue valorar su repercusión en la calidad del ambiente interior, y en la reducción de la demanda energética para acondicionamiento térmico. Se aplica sobre dos viviendas tipo que se han monitorizado en Madrid, utilizando dos soluciones innovadoras para rehabilitación energética, que disponen de documentos de idoneidad DIT y DITE. Una incorpora sobre la fachada tipo un aislamiento por el exterior, y otra incorpora un sistema de fachada ventilada, también sobre esta fachada tipo. El análisis de las viviendas se ha realizado a partir de la toma de datos, ensayos y estudio de detalle, llevados a cabo a lo largo de los años 2014 y 2015. El análisis de los sistemas de fachada se ha realizado a partir de ensayos controlados, comparando los resultados para tres tipos de fachada: una fachada tipo, habitual en la construcción de las viviendas de este periodo, y las dos soluciones innovadoras mencionadas. Una vez realizado el diagnóstico de las viviendas y el análisis de los ensayos de los sistemas constructivos, los resultados obtenidos se utilizan para generar los modelos de simulación sobre los que evaluar las mejoras. El periodo de estudio comprende cuatro décadas que comienzan en 1940, en un momento con escasos medios técnicos para la construcción, y que coincide con el comienzo del crecimiento en las grandes ciudades, y finaliza con la incorporación en la normativa de las exigencias de aislamiento en fachadas, de 1979. En la ciudad de Madrid las viviendas construidas en este periodo, suponen un 45% del total de viviendas censadas en 2011. La rehabilitación energética se ha ido incorporando en los sucesivos planes nacionales de vivienda como actuación protegida, y son muchos y muy diversos los planes de acción desde la administración en materia de vivienda social, tanto a nivel nacional como europeo. La vivienda queda incluida en materia de desarrollo y cohesión urbana, territorial y social, haciendo necesario un enfoque integrado. Los barrios de vivienda social forman parte de un patrimonio construido en los que los criterios de sostenibilidad toman especial interés y relevancia, ya que a través del tiempo se han construido como actores y testigos de su historia social, económica, ambiental y cultural. El diseño de los modelos y actuaciones de futuro se sustenta en la asimilación de esa complejidad y diversidad adquirida. Por otro lado, el actual reto que impone el calentamiento global obliga a plantear escenarios de adaptación y mejora en estos edificios, con una especial atención a la dependencia energética, el consumo de recursos, y emisiones de gases de efecto invernadero. La fachada es el elemento más importante de la envolvente en los edificios multifamiliares, siendo el lugar donde se produce el intercambio entre el ambiente interior y exterior. Su rehabilitación puede mejorar las prestaciones de habitabilidad en las viviendas, y disminuir la demanda de energía para alcanzar unas condiciones de confort estándar. El trabajo de investigación que se ha realizado, forma parte de una linea de investigación abierta sobre sistemas constructivos y habitabilidad en edificación. ABSTRACT A methodology for the evaluation of facade’s constructive solutions for social housing refurbishment, built between the end of the Civil War, and the entry into force of the basic standard NBE-CT-79 on thermal conditions in buildings is proposed. This methodology starts both with the analysis of the current status in dwellings, and with the characterization of rehabilitation’s constructive solutions performance, for the integrated assessment of improvements. The evaluation seeks to assess their impact on the indoor environmental quality, and on reducing the energy demand for thermal conditioning. The methodology is applied to two standard dwellings, that have been monitored in Madrid, with two innovative solutions for energy refurbishment, which have DIT and DITE assessment documents. One incorporates an exterior insulation, and the other incorporates a ventilated facade system. The analysis of the dwellings was made from data collection, testing and detailed study, conducted throughout 2014 and 2015. Analysis of the facade systems was made from controlled trials comparing the results for three types of façade: a standard usual facade common in the construction of this period, and the two innovative solutions mentioned. Based on the diagnosis of housing and systems analysis, the results are used to generate simulation models on which assess the improvements. The study period comprises four decades starting in 1940, at a time with limited technical resources for construction, which coincides with the beginning of growth in big cities, and ends with the incorporation in the 1979 legislation of the façade’s insulation requirements. In the city of Madrid the houses built in this period account for 45% of all households surveyed in 2011. As a “protected action” energy rehabilitation has been incorporated in successive national housing plans, and there are many and very different action plans from the Administration in the field of social housing, both at national and European level. An integrated approach is needed, due to the inclusion of housing in development and urban, territorial and social cohesion. Social housing neighborhoods are part of the built heritage. Sustainability criteria therefore are particularely relevant, since over time they have been built as actors and witnesses of their social, economic, environmental and cultural history. The design and performance of future models is based on the assimilation of this complexity and diversity acquired. On the other hand, the current challenge posed by global warming forces to consider scenarios for adaptation and improvement in these buildings, with particular attention to energy dependence, resource consumption, and greenhouse gas emissions. The facade is the most important element of the envelope in the multi-family buildings, being the place where the exchange occurs between the indoor and outdoor environments. Its rehabilitation can improve wellbeing in housing performance, and reduce energy demand to achieve standard comfort conditions. This research that has been done, is part of an open research line on construction and living conditions in buildings.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Tesis Doctoral que se presenta trata de profundizar en el conocimiento del patrimonio arbóreo, en la cuestión de la evaluación y la singularidad a nivel de ejemplares y agrupaciones. La metodología incorpora nuevas herramientas, modelos y criterios utilizados en la valoración del paisaje y de los recursos naturales. Siendo el árbol un generador de espacio y habitats, solo o en masa, es vínculo entre la naturaleza y el ser humano, las comunidades y sus costumbres. Desde estos parámetros se indagan los procesos que permiten estimar el significado, la importancia y el valor del árbol para llevarlo a una consideración de Singular y/o Monumental. El estudio se basa en los sistemas de catalogación, tras el reconocimiento, localization y selección de ejemplares. Así mismo, se explora la relación sistémica entre árbol y entorno para poner de relieve la importancia del árbol en la configuración de determinados paisajes culturales y ecológicos -como son los robledales de antiguos trasmochos en Euskadi-. Sobre un primer inventario se realiza un estudio pormenorizado de cada árbol registrado y, en un procedimiento paramétrico, se definen criterios -ecológicos y paisajísticos, etnográficos y culturales- de selección de elementos y de evaluación. La obtención de distintos índices de singularidad para los árboles, utilizando modelos tanto cualitativos como cuantitativos, sirve como vía hacia una categorization de los árboles muestreados. A partir de la figura de "Árbol Singular", recogida en la Ley 16/ 1994, de Conservación de la Naturaleza del País Vasco se realiza una revisión del marco legislativo y el régimen de protección, haciendo un análisis a nivel local, autonómico y estatal. Dicho examen pone de manifiesto la diversidad de contextos y significados bajo los que se presentan los árboles. Se muestra también una (in)definición: cierta ambigüedad en torno a la definición que induce a diferentes interpretaciones y nomenclaturas en un intento de delimitar la categoría para regularlo jurídicamente. Estas figuras concebidas desde las políticas de protección ambiental, no siempre resultan del todo efectivas. El Catálogo de Árboles Singulares del País Vasco, creado por Decreto como instrumento para poner en valor estos recursos naturales, no ha sido actualizado desde hace casi veinte años. Sin embargo, se han llevado a cabo iniciativas de ampliación como el trabajo impulsado por el Departamento de Medio Ambiente y Biodiversidad de la Diputación Foral de Álava para el inventario de los árboles singulares del Territorio Histórico de Álava y la propuesta de catálogo a partir del cual se desarrolla esta Tesis Doctoral. Desde estas reflexiones y el desarrollo de modelos para la evaluación y catalogación de los ejemplares registrados, la investigación trata de descifrar cómo observamos a los árboles con los que nos vinculamos, cómo son identificados, a través de qué otros parámetros intangibles les damos valor, y por qué necesitamos clasificarlos. El trabajo concluye con propuestas y acciones alternativas para la conservación y mejora de los árboles que se proponen como singulares, entre ellas, la divulgación y la sensibilización para garantizar el compromiso y la ampliación en el futuro de un catálogo abierto para los árboles de interés. ABSTRACT The PhD thesis here presented tries to deepen the knowledge of tree heritage, the issue of evaluation and singularity where it comes to either specimen or groups. The methodology includes new tools, models and criteria to be used in the assessment of landscape and natural resources. With the tree being a creator of space and habitats, alone or in groups, it is a link between nature and humans, societies and their habits. Using these parameters processes are being sought after: processes that allow us to assess the meaning, the importance and the value of trees in order to lead us to considering a tree as being a 'Singular tree' and/or 'Heritage tree'. The research is based on cataloging systems, after recognizing, localizing and selecting of specimen. This way, the systemic relation between the tree and its surrounding is being explored to get a view on the importance of trees in certain cultural and ecological landscapes -such as the oak fields consisting of ancient pollards in the Basque Country-. After a first inventory a detailed study is performed of each registered tree and, using a parametric method, criteria for selection of elements and evaluation are defined -ecological and those concerning the landscape, as well as ethnographical and cultural-. The creation of different indexes of singularity for trees, using qualitative as well as quantitative models, serves as a way to categorize the selected trees. A revision is done on legislation and the protection regimen, analyzing on a local, autonomic state and national level, parting from the concept of the Singular Tree, as included in the Law 16/1994, of Nature Conservation of Basque Coutry. This review proves the diversity of contexts and meanings in which the trees are being presented. Also an (un)definition appears; certain ambiguity of the definition which induces different interpretations and nomenclatures in an attempt to limit categorization in order to legally regulate. These concepts created out of environment protection politics do not always turn out to be completely effective. The Catalogue of Singular Trees in the Basque Country, created by decree as an instrument to value these natural resources, has not been updated since almost twenty years. However, there have been initiatives of amplification such as the work promoted by the Environment and Biodiversity Service of Provincial Council of Alava to create the inventory of singular trees of the Historical Territory of Álava and the catalogue proposal which forms the starting point of this PhD thesis. Parting from these considerations and the development of models for evaluation and cataloging of the registered specimen, the investigation attempts to unravel the way we observe the trees with which we link, how they are identified, by which intangible parameters we assess them and why we need to classify them. This study ends with proposals and alternative actions for the conservation and improvement of the trees that are being proposed as being singular. Among them are the publication and creating of awareness to guarantee the commitment and the development of an open catalogue for significant trees.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo tiene como objetivo evaluar el aprendizaje de los deportes colectivos en el alumnado de segundo ciclo de Educación Secundaria Obligatoria (ESO) utilizando una herramienta denominada Game Performance Assessment Instrument (GPAI). Para ello se ha realizado una revisión de dos modelos de enseñanza existentes: el modelo técnico y el modelo comprensivo. Así mismo hemos revisado dos tipos de procesos de evaluación; por un lado la evaluación sumativa, más relacionada con el modelo técnico; por otro lado la evaluación formativa, más próxima al modelo comprensivo. A continuación se ha llevado a cabo una intervención didáctica aplicando el modelo de enseñanza comprensivo (TGfU) y el instrumento mencionado anteriormente (GPAI). Los resultados obtenidos han sido utilizados para proponer un sistema de evaluación basado en el modelo comprensivo con la utilización del GPAI y a través de la coevaluación como forma de asentar el aprendizaje en el alumnado. Se concluye que el modelo de enseñanza comprensivo (TGfU) con el GPAI y una evaluación entre iguales es bastante óptimo para favorecer el proceso de enseñanzaaprendizaje de los deportes colectivos en el alumnado de segundo ciclo de Educación Secundaria Obligatoria (ESO). ABSTRACT The present work has the aim to assess the learning of collective sports in Secondary Education students using a tool called Game Performance Assessment Instrument (GPAI). For that we have used to revision of two teaching models: the technical model and Teaching Games for Understanding (TGfU). At the same time, we have reviewed two kinds of assessment process; on one hand summative assessment which is related to technical model; on the other hand formative assessment nearest to Teaching Games for Understanding (TGfU). Next it has been done a didactic intervention using the Teaching Games for Understanding (TGfU) and that instrument mentioned beforehand. The results obtained have been used to suggest an assessment system based on Teaching Games for Understanding (TGfU) using the GPAI through the peer assessment as a way of teaching.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo estudia la validez de la flexibilidad y la polivalencia, en tanto que estrategias de diseño doméstico, para superar los problemas derivados de la coincidencia de dos circunstancias opuestas en el campo de la vivienda social. Por un lado, la existencia en España de un rígido conjunto de normativas de diseño, originado a mediados del siglo pasado bajo unos supuestos culturales e ideológicos distintos a los actuales, que fija una idea muy precisa de hogar. Por otro lado, la creciente variedad de modos de habitar derivada del progreso social, económico y tecnológico de las últimas décadas. La tesis presenta dos partes ligadas entre sí. La primera es una investigación bibliográfica en la que se analizan los diferentes conceptos asociados a la flexibilidad y la polivalencia manejados hasta hoy, se estudian las formas en las que estas estrategias se presentan a través de ejemplos, algunos de ellos muy poco conocidos, y se exponen las oportunidades y los obstáculos para su desarrollo en nuestro país. La segunda parte es una investigación experimental que incluye los estudios de evaluación de dos edificios madrileños de referencia, las viviendas flexibles de Aranguren y Gallegos en Carabanchel y las viviendas polivalentes de la Casa de las Flores, de Secundino Zuazo. En ellos se analizan las ventajas y desventajas de los distintos dispositivos flexibles y polivalentes existentes en dichas viviendas; cómo influyen en la organización de la vida doméstica; cuáles de sus características merecen ser implementadas en nuevos proyectos y bajo qué condiciones. La investigación revela que la flexibilidad ofrece ventajas funcionales objetivas, pero que su generalización en nuevas promociones de vivienda ocasionaría problemas de índole cultural. Por otro lado, la polivalencia es eficaz para dar cabida a nuevos modelos de convivencia, pero choca con las preferencias de los grupos familiares tradicionales. En ambos casos, se proponen soluciones para mejorar su eficacia. ABSTRACT The aim of this thesis is to assess the validity of flexibility and polyvalence as architectural responses to address some of the issues derived from two concurrent –yet opposing– circumstances in the field of Spanish social housing. On the one hand, the existence of a thick set of rules that strictly defines the form and use of the domestic space. These design norms were originated in the mid-20th century, according to an institutionalised idea of nuclear family and family home that does not match the current social trends in the country. On the other hand, the growing variety of lifestyles and family groups derived from the social, economic and technological progress of the last decades. The thesis is divided into two interrelated parts: The first one is a bibliographic research and an analysis of the diverse concepts attached to flexibility and polyvalence existing in the literature, a study of the ways in which these strategies are practiced in relevant housing buildings, and an explanation of the benefits and difficulties they pose with respect to their development in Spain. The second part is an experimental research including two post-occupancy evaluations in two housing buildings in Madrid: the flexible apartments in Carabanchel by Aranguren & Gallegos, and the polyvalent apartments in la Casa de las Flores by Secundino Zuazo. These studies are aimed at determining the extent to which the flexible and polyvalent elements in these projects are successful, which users take advantage of them and, over all, which of these features deserve to be applied to future developments, and under which conditions. The research indicates that, despite offering objective functional advantages, flexibility cannot be proposed as a general strategy in future subsidised housing developments due to the cultural problems it provokes. Besides, polyvalence is useful to host new cohabitations models, but it clashes with the preferences of traditional family groups. In both cases, several solutions to improve their efficiency are presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El estándar LTE se ha posicionado como una de las claves para que los operadores de telecomunicación puedan abordar de manera eficiente en costes el crecimiento de la demanda de tráfico móvil que se prevé para los próximos años, al ser una tecnología más escalable en el núcleo de la red y más flexible en la interfaz radio que sus predecesoras. En este sentido, es necesario también que los reguladores garanticen un acceso al espectro radioeléctrico adecuado, equitativo y no discriminatorio, que permita un entorno estable para el despliegue de redes de comunicaciones móviles avanzadas. Además de la flexibilización del marco regulador del espectro radioeléctrico en Europa, que ha permitido el despliegue de nuevas tecnologías en las bandas de frecuencia históricas de GSM, se ha puesto a disposición espectro adicional para sistemas IMT en nuevas bandas de frecuencia, lo que ha planteando a su vez nuevos retos para la tecnología y la regulación. La fragmentación del espectro disponible para comunicaciones móviles ha impulsado el desarrollo de técnicas de agregación de portadoras en las nuevas versiones del estándar LTE, que permiten explotar mejor los recursos radio en su conjunto. No obstante, el espectro inferior a 1 GHz sigue siendo escaso, ya que el tráfico móvil aumenta y la banda de 900 MHz aún se utiliza para servicios GSM, lo que no ha conseguido sino agravar la disputa entre los servicios de radiodifusión terrestre y de comunicaciones móviles por la parte superior de la banda UHF. En concreto, la banda de 700 MHz se perfila como una de las próximas para aumentar el espectro disponible para los servicios en movilidad, si bien su liberación por parte de las actuales redes de Televisión Digital Terrestre presenta no pocas dificultades en los Estados miembros en los que ésta es la principal plataforma audiovisual de acceso gratuito, abriendo un debate sobre el modelo audiovisual a largo plazo en Europa. Por otro lado, las políticas públicas de promoción del acceso a la banda ancha rápida y ultrarrápida de la presente década han establecido objetivos ambiciosos para el año 2020, tanto en el ámbito europeo como en los diferentes Estados miembros. La universalización del acceso a redes de banda ancha de al menos 30 Mbps constituye uno de los principales retos. Las expectativas generadas por la tecnología LTE y la puesta a disposición de nuevas bandas de frecuencia hace posible que los servicios de acceso fijo inalámbrico adquieran especial relevancia ante los objetivos de política pública establecidos que, como ha sido reconocido en diversas ocasiones, no podrán lograrse sino con un compendio de diferente tecnologías. Para esta Tesis Doctoral se han desarrollado una serie modelos tecnoeconómicos con el objetivo de realizar un análisis prospectivo que evalúa tres casos de especial relevancia en el despliegue de redes LTE: en primer lugar, la valoración económica de la banda de 700 MHz; en segundo lugar, la evaluación de modelos de negocio y reducción de costes considerando tecnologías femtocelulares; y finalmente, la viabilidad de las redes LTE de acceso fijo inalámbrico para el cierre de la brecha digital en el acceso a la banda ancha de 30 Mbps. En relación con la aplicación del análisis tecnoeconómico para la valoración del espectro de 700 MHz, los resultados obtenidos ponen de manifiesto dos cuestiones fundamentales. En primer lugar, la necesidad de asignar a los operadores más espectro para satisfacer las previsiones de demanda de tráfico móvil a medio plazo. En segundo, existe una diferencia notable en los costes de despliegue de una red LTE cuando se dispone de espectro en frecuencias inferiores a 1 GHz y cuando no, pero esta diferencia de costes disminuye a medida que se añade nuevo espectro sub-1GHz. De esta manera, la atribución de la banda de 700 MHz a servicios de comunicaciones móviles supone una reducción relevante en los costes de despliegue si el operador no dispone de espectro en la banda de 800 MHz, pero no así si ya dispone de espectro en bandas bajas para el despliegue. En este sentido, puede concluirse que el precio que los operadores estarán dispuestos a pagar por el espectro de la banda de 700 MHz dependede si ya tienen disponible espectro en la banda de 800 MHz. Sin embargo, dado que la competencia por ese espectro será menor, los ingresos esperables en las licitaciones de esta nueva banda serán en general menores, a pesar de que para algunos operadores este espectro sería tan valioso como el de 800 MHz. En segundo lugar, en relación con el despliegue de femtoceldas pueden extraerse algunas conclusiones en términos de ahorro de costes de despliegue y también de cara a la viabilidad de los modelos de negocio que posibilitan. El ahorro que supone la introducción de femtoceldas en el despliegue de una red LTE frente al caso de un despliegue exclusivamente macrocelular se ha demostrado que es mayor cuanto menor es el ancho de banda disponible para la red macrocelular. En esta línea, para un operador convergente el despliegue de femtoceldas tiene sentido económico si el ancho de banda disponible es escaso (en torno a 2x10 MHz), que, en el caso de España, puede reflejar el caso de los operadores del segmento fijo que son nuevos entrantes en el móvil. Por otro lado, los modelos de acceso abierto son interesantes para operadores exclusivamente móviles, porque consiguen flexibilizar los costes sustituyendo estaciones base macrocelulares por el despliegue de femtoceldas, pero necesitan desplegarse en zonas con una densidad de población relativamente elevada para que éstas descarguen tráfico de varios usuarios de la red macrocelular simultáneamente. No obstante, las femtoceldas son beneficiosas en todo caso si es el usuario quien asume los costes de la femtocelda y el backhaul, lo que sólo parece probable si se integran en el modelo de negocio de comercialización de nuevos servicios. Por tanto, el despliegue de femtoceldas en buena parte de la casuística estudiada sólo tiene sentido si consiguen aumentar los ingresos por usuario comercializando servicios de valor añadido que necesiten calidad de servicio garantizada y exploten a la vez de esa forma su principal ventaja competitiva respecto a la tecnología WiFi. Finalmente, en relación con el papel de la tecnología LTE para la provisión de servicios de acceso fijo inalámbrico para la banda ancha de 30 Mbps, se ha desarrollado un modelo TD-LTE y mediante la metodología de análisis tecnoeconómico se ha realizado un estudio prospectivo para el caso de España. Los resultados obtenidos preciden una huella de cobertura de FTTH del 74% para 2020, y demuestran que una red TD-LTE en la banda de 3,5 GHz resulta viable para aumentar la cobertura de servicios de 30 Mbps en 14 puntos porcentuales. Junto con la consideración de la cobertura de otras redes, la cobertura de 30 Mbps de acuerdo a la viabilidad de los despliegues alcanzaría el 95% en España en el año 2020. Como resumen, los resultados obtenidos muestran en todos los casos la capacidad de la tecnología LTE para afrontar nuevos desafíos en relación con el aumento del tráfico móvil, especialmente crítico en las zonas más urbanas, y el cierre de la brecha digital en el acceso a la banda ancha rápida en las zonas más rurales. ABSTRACT The LTE standard has been pointed out as one of the keys for telecom operators to address the demand growth in mobile traffic foreseen for the next years in a cost-efficient way, since its core network is more scalable and its radio interface more flexible than those of its predecessor technologies. On the other hand, regulators need to guarantee an adequate, equitable and non-discriminatory access to radio spectrum, which enable a favorable environment for the deployment of advanced mobile communication networks. Despite the reform of the spectrum regulatory framework in Europe, which allowed for the deployment of new technologies in the historic GSM bands, additional spectrum has been allocated to IMT systems in new frequency bands, what in turn has set out new challenges for technology and regulation. The current fragmentation of available spectrum in very different frequency bands has boosted the development of carrier aggregation techniques in most recent releases of the LTE standard, which permit a better exploitation of radio resources as a whole. Nonetheless, spectrum below 1 GHz is still scarce for mobile networks, since mobile traffic increases at a more rapid pace than spectral efficiency and spectrum resources. The 900 MHz frequency band is still being used for GSM services, what has worsen the dispute between mobile communication services and terrestrial broadcasting services for the upper part of the UHF band. Concretely, the 700 MHz frequency band has been pointed out as one of the next bands to be allocated to mobile in order to increase available spectrum. However, its release by current Digital Terrestrial Television networks is challenging in Member States where it constitutes the main free access audiovisual platform, opening up a new debate around the audiovisual model in the long term in Europe. On the other hand, public policies of the present decade to promote fast and ultrafast broadband access has established very ambitious objectives for the year 2020, both at European and national levels. Universalization of 30 Mbps broadband access networks constitutes one of the main challenges. Expectations raised by LTE technology and the allocation of new frequency bands has lead fixed wireless access (FWA) services to acquire special relevance in light of public policy objectives, which will not be met but with a compendium of different technologies, as different involved stakeholders have acknowledged. This PhD Dissertation develops techno-economic models to carry out a prospective analysis for three cases of special relevance in LTE networks’ deployment: the spectrum pricing of the 700 MHz frequency band, an assessment of new business models and cost reduction considering femtocell technologies, and the feasibility of LTE fixed wireless access networks to close the 30 Mbps broadband access gap in rural areas. In the first place and regarding the application of techno-economic analysis for 700 MHz spectrum pricing, obtained results reveal two core issues. First of all, the need to allocate more spectrum for operators in order to fulfill mobile traffic demand in the mid-term. Secondly, there is a substantial difference in deployment costs for a LTE network when there is sub-1GHz spectrum available and when there is not, but this difference decreases as additional sub-1GHz spectrum is added. Thus, the allocation of 700 MHz band to mobile communication services would cause a relevant reduction in deployment costs if the operator does not count on spectrum in the 800 MHz, but not if it already has been assigned spectrum in low frequencies for the deployment. In this regard, the price operators will be willing to pay for 700 MHz spectrum will depend on them having already spectrum in the 800 MHz frequency band or not. However, since competition for the new spectrum will not be so strong, expected incomes from 700 MHz spectrum awards will be generally lower than those from the digital dividend, despite this spectrum being as valuable as 800 MHz spectrum for some operators. In the second place, regarding femtocell deployment, some conclusions can be drawn in terms of deployment cost savings and also with reference to the business model they enable. Savings provided by a joint macro-femto LTE network as compared to an exclusively macrocellular deployment increase as the available bandwidth for the macrocells decreases. Therefore, for a convergent operator the deployment of femtocells can only have economic sense if the available bandwidth is scarce (around 2x10 MHz), which might be the case of fix market operators which are new entrant in mobile market. Besides, open access models are interesting for exclusively mobile operators, since they make costs more flexible by substituting macrocell base stations by femtocells, but they need to be deployed relatively densely populated areas so that they can offload traffic from several macrocell users simultaneously. Nonetheless, femtocells are beneficial in all cases if the user assumes both femtocell and backhaul costs, which only seems probable if they are integrated in a business model commercializing new services. Therefore, in many of the cases analyzed femtocell deployment only makes sense if they increase revenues per user through new added value services which need from guaranteed quality of service, thus exploiting its main competitive advantage compared to WiFi. Finally, regarding the role of LTE technology in the provision of fixed wireless access services for 30 Mbps broadband, a TD-LTE model has been developed and a prospective study has been carried out through techno-economic methodology for the Spanish case. Obtained results foresee a FTTH coverage footprint of 74% households for 2020, and prove that a TD-LTE network in the 3.5 GHz band results feasible to increase 30 Mbps service coverage in additional 14 percentage points. To sum up, obtained results show LTE technology capability to address new challenges regarding both mobile traffic growth, particularly critical in urban zones, and the current digital divide in fast broadband access in most rural zones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo, trata del ahorro de energía en la edificación y en el urbanismo. Las premisas en este caso, son un contexto normativo europeo y nacional muy exigentes y encaminados de manera decidida hacia edificios cada vez más eficientes y económicos. Se centra el estudio en las decisiones iniciales que se adoptan sobre las condiciones de ocupación de la parcela urbana, las tipologías edificatorias más adecuadas, su morfología y escala y las consecuencias que tienen para el comportamiento energético final, tanto en términos objetivos como normativos. Se trata de cuantificar que suponen estas decisiones en términos de ahorro energético. Todo el análisis se realiza para un contexto climático concreto, el de la ciudad de Madrid. Para los análisis de las diferentes condiciones de implantación objeto del estudio, se han empleado unas herramientas informáticas singulares. Se trata de los programas de evaluación de la demanda y certificación energética de edificios, que el gobierno español pone a disposición de los usuarios de manera gratuita. Estas, son aplicaciones pensadas para la escala del edificio y/o parte de él, pero que con la metodología y simplificaciones que en el trabajo se detallan, pueden ser empleadas en la escala media de intervención urbana, tanto en nueva implantación como en rehabilitación. Hay que tener en cuenta que son estas aplicaciones las que se utilizarán en la mayoría de los casos como instrumento de evaluación y calificación del comportamiento energético de cada una de las unidades. Las tipologías objeto del estudio son: - Vivienda unifamiliar: aislada, pareada y adosada en hilera. - Bloque abierto - Bloque en H - Bloque en cruz - Torre - Manzana cerrada El contenido principal del trabajo se centra en el análisis individual de cada tipología y de su agrupación teórica sobre lo que podíamos llamar "unidad urbana", una manzana tipo de 10.000 m2, 1 ha. Se opta por esta unidad por tratarse de una superficie urbana lo suficientemente amplia para caracterizar la agrupación de las diferentes tipologías estudiadas y por adaptarse a las capacidades de las herramientas informáticas que se han utilizado. Se han analizado diferentes opciones tipológicas de ocupación, manteniendo constantes en todas las soluciones estudiadas, los siguientes parámetros: • el clima (Madrid), • la edificabilidad (en todas menos una en la que el modelo no permite alcanzar la edificabilidad de referencia), • la pureza formal del modelo, evitando los juegos compositivos de retranqueos y salientes de la envolvente que distorsionen el comportamiento de la volumetría primaria, • las soluciones constructivas de la envolvente y particiones interiores de los edificios, • las proporciones de huecos en la envolvente, • las soluciones de sus carpinterías y vidrios • y todas las condiciones operacionales que aplica el programa de simulación. Esta tesis, es un estudio analítico y evaluado, del comportamiento de cada uno de los tipos, su forma y posicionamiento en el espacio. Cada uno de los modelos se simula de manera individual y agrupados, con el fin de conseguir colmatar la edificabilidad de referencia sobre la parcela urbana de 1 ha. Todos los resultados se estudian de forma independiente y los resultados se expresan en diferentes tablas y un resumen en fichas individuales por tipos. La conclusión principal del trabajo es que la tipología elegida como contenedor residencial urbano determina en su elección acertada la primera medida de ahorro energético y reducción de emisiones cuantificables en más del 50% entre las tipologías más favorables y las más desfavorables. Una segunda parte del trabajo de investigación, consiste en la aplicación de esta metodología de simulación y empleando las mismas herramientas, en el estudio de casos reales en la comunidad de Madrid (principalmente en la ciudad de Madrid). El objetivo es validar el procedimiento y dichas herramientas, también para el caso de evaluación de tejidos urbanos consolidados. Como caso singular de estudio de rehabilitación urbana, se analizan las intervenciones de rehabilitación partiendo de criterios acústicos y las oportunidades que plantearía la inclusión de criterios térmicos aprovechando la sinergia entre ambas demandas, la de confort acústico y térmico. ABSTRACT This PhD work is about saving energy in buildings and urban planning. The premises in this case are a very demanding European and national policy, aimed decisively towards efficient and economic buildings. The study focuses on the initial decisions taken on the conditions of occupation of urban land, the most suitable building types, their morphology and scale and the implications for the final energy performance, always considering policy objectives. This essay tries to quantify how important this decisions are in energy savings terms. All analysis are performed for a particular climatic context, the city of Madrid. For the analysis of different implantation conditions under study, we have used a unique software tool. This software, a free tool available online, quantifies demand assessment and energy certification of buildings. It is designed for building scale and / or part of it. With the methodology and simplifications detailed in this paper, the software can be used in medium scale urban intervention. There are different types under study such as, isolated house, semi-detached, terraces row, open block, h block, cross block, tower, etc. The main content of the work focuses on the individual analysis of each type and its theoretical group, named urban unit group. This unit is chosen because it is an urban area large enough to characterize the grouping of the different types studied. It is also possible to simulate with the software tools. Different options of typological occupation have been analyzed taking in consideration the next parameters: climate, floor area, model formal purity, building envelope solutions and interior partitions of buildings, the proportions of voids in the facades. This thesis is an analytical and evaluated study of the behavior of each types, form and position in space. Each of the models is simulated individually and grouped, in order to get the reference buildable urban plot of 1 ha. All results are studied independently and the results are expressed in different tables and a summary in individual files by type. The main conclusion of the study is that the type chosen as urban residential container you choose determines the first step in successful energy savings and quantifiable reduction of emissions by more than 50% in the most favorable and the most unfavorable types. A second part of the research, is the application of this methodology and simulation using the same tools in the study of real cases in the community of Madrid (mainly in the city of Madrid). The aim is to validate the procedure and such tools, also for the case of evaluation of consolidated urban fabric. As a unique case study of urban renewal, rehabilitation interventions based on acoustic criteria and opportunities arise thermal criteria including leveraging the synergy between the two demands, acoustic and thermal comfort are analyzed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un dron o un RPA (del inglés, Remote Piloted Aircraft) es un vehículo aéreo no tripulado capaz de despegar, volar y aterrizar de forma autónoma, semiautónoma o manual, siempre con control remoto. Además, toda aeronave de estas características debe ser capaz de mantener un nivel de vuelo controlado y sostenido. A lo largo de los años, estos aparatos han ido evolución tanto en aplicaciones como en su estética y características físicas, siempre impulsado por los requerimientos militares en cada momento. Gracias a este desarrollo, hoy en día los drones son uno más en la sociedad y desempeñan tareas que para cualquier ser humano serían peligrosas o difíciles de llevar a cabo. Debido a la reciente proliferación de los RPA, los gobiernos de los distintos países se han visto obligados a redactar nuevas leyes y/o modificar las ya existentes en relación a los diferentes usos del espacio aéreo para promover la convivencia de estas aeronaves con el resto de vehículos aéreos. El objeto principal de este proyecto es ensamblar, caracterizar y configurar dos modelos reales de dron: el DJI F450 y el TAROT t810. Para conseguir un montaje apropiado a las aplicaciones posteriores que se les va a dar, antes de su construcción se ha realizado un estudio individualizado en detalle de cada una de las partes y módulos que componen estos vehículos. Adicionalmente, se ha investigado acerca de los distintos tipos de sistemas de transmisión de control remoto, vídeo y telemetría, sin dejar de lado las baterías que impulsarán al aparato durante sus vuelos. De este modo, es sabido que los RPA están compuestos por distintos módulos operativos: los principales, todo aquel módulo para que el aparato pueda volar, y los complementarios, que son aquellos que dotan a cada aeronave de características adicionales y personalizadas que lo hacen apto para diferentes usos. A lo largo de este proyecto se han instalado y probado diferentes módulos adicionales en cada uno de los drones, además de estar ambos constituidos por distintos bloques principales, incluyendo el controlador principal: NAZA-M Lite instalado en el dron DJI F450 y NAZA-M V2 incorporado en el TAROT t810. De esta forma se ha podido establecer una comparativa real acerca del comportamiento de éstos, tanto de forma conjunta como de ambos controladores individualmente. Tras la evaluación experimental obtenida tras diversas pruebas de vuelo, se puede concluir que ambos modelos de controladores se ajustan a las necesidades demandadas por el proyecto y sus futuras aplicaciones, siendo más apropiada la elección del modelo M Lite por motivos estrictamente económicos, ya que su comportamiento en entornos recreativos es similar al modelo M V2. ABSTRACT. A drone or RPA (Remote Piloted Aircraft) is an unmanned aerial vehicle that is able to take off, to fly and to land autonomously, semi-autonomously or manually, always connected via remote control. In addition, these aircrafts must be able to keep a controlled and sustained flight level. Over the years, the applications for these devices have evolved as much as their aesthetics and physical features both boosted by the military needs along time. Thanks to this development, nowadays drones are part of our society, executing tasks potentially dangerous or difficult to complete by humans. Due to the recent proliferation of RPA, governments worldwide have been forced to draft legislation and/or modify the existing ones about the different uses of the aerial space to promote the cohabitation of these aircrafts with the rest of the aerial vehicles. The main objective of this project is to assemble, to characterize and to set-up two real drone models: DJI F450 and TAROT t810. Before constructing the vehicles, a detailed study of each part and module that composes them has been carried out, in order to get an appropriate structure for their expected uses. Additionally, the different kinds of remote control, video and telemetry transmission systems have been investigated, including the batteries that will power the aircrafts during their flights. RPA are made of several operative modules: main modules, i.e. those which make the aircraft fly, and complementary modules, that customize each aircraft and equip them with additional features, making them suitable for a particular use. Along this project, several complementary modules for each drone have been installed and tested. Furthermore, both are built from different main units, including the main controller: NAZA-M Lite installed on DJI F450 and NAZA-M V2 on board of TAROT t810. This way, it has been possible to establish an accurate comparison, related to the performance of both models, not only jointly but individually as well. After several flight tests and an experimental evaluation, it can be concluded that both main controller models are suitable for the requirements fixed for the project and the future applications, being more appropriate to choose the M Lite model strictly due to economic reasons, as its performance in recreational environment is similar to the M V2.