25 resultados para Catalisador heterogêneo

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La extinción de fluorescencia ("quenching") multif1uoróforo ha sido empleada para obtener información dinámica y estructural especialmente en muestras biológicas tales como proteínas y ácidos nucleicos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Profundizamos en el concepto "reciclajes urbanos" mediante el análisis de determinados aspectos del Plan de Renovación Urbana del entorno del río Manzanares (2008-2010). La investigación sobre la continua transformación de la ciudad, con la evolución de la escena, las ideas, los proyectos históricos y actuales, aportan al Plan y su proceso de redacción metodologías de investigación y criterios de actuación de aplicación teórica y práctica en la propuesta definitiva.El Ayuntamiento pretende consolidar mediante la renovación privada de la escena dos actuaciones públicas previas: el soterramiento de la M-30 y el gran parque urbano del Manzanares. Actuando en un borde heterogéneo, histórico, industrial y residencial, fruto del desarrollismo especulativo "asfixiado" posteriormente por la M-30. El Plan es una oportunidad de regeneración urbana a gran escala -en un ámbito de 390 Ha, 8 Km de longitud y 400-500 m de anchura- que afecta a más de 30.000 viviendas y plantea relaciones de escala y contenido con los ejes Castellana-Prado-Recoletos o Gran Vía. El modelo de rehabilitación actúa sobre edificación y suelos de propiedad privada o de distintas administraciones. Se realizará atrayendo y coordinando la inversión de los propietarios en la rehabilitación de sus viviendas y regenerando un eje de actividad capaz de crear dinámicas de renovación en focos de centralidad, aportando complejidad de usos al gran parque urbano, actualmente en realización. El "reciclaje de lo edificado" propone la clasificación de las intervenciones (rehabilitación funcional, de eficiencia energética y de escena urbana) y la intervención en conjuntos de renovación urbana. La estrategia de renovación a medio y largo plazo, en un espacio ya consolidado, impone varias líneas de investigación. El artículo profundiza especialmente en la relación del Plan con el análisis de evolución de la escena y la estructura urbana. Referencias pictóricas, fotográficas y cartográficas e imágenes del diagnóstico y la propuesta urbana ilustran este escrito

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema objeto de investigación “El recinto ferial de la Casa de Campo de Madrid (1950-75)” se trata desde una perspectiva que alterna la visión general y la visión pormenorizada. Profundizamos en la comprensión de las relaciones del recinto con el resto de la ciudad, desde la originalidad y singularidad de su trazado,la descripción y el análisis con distinto grado de detalle de sus arquitecturas, a partir, de la investigación documental, bibliográfica y la restitución gráfica realizada. Procuramos situar los pabellones en el contexto de las arquitecturas del periodo estudiado, indicando, en el caso del recinto original y los pabellones proyectados por el arquitecto Francisco Cabrero, posibles referencias a la tradición vernácula y clásica, los invariantes de la arquitectura española, sus maestros, la visión contemporánea de la arquitectura moderna e interpretación personal, recogida en sus cuatro libros de arquitectura. Otro campo de estudio, el resto de los pabellones construidos en virtud de las necesidades de los organismos que concurrían a la feria, constituyeron, dependiendo de sus distintos autores, un conjunto heterogéneo y diverso de planteamientos estilísticos, concepciones funcionales, espaciales y de calidad arquitectónica. De la comparación se extraen las oportunas reflexiones. La feria supone una alteración de las preexistencias del lugar, influyendo decisivamente en la configuración y evolución del ámbito urbano, condicionándolo, también hoy en día. Examinaremos la repercusión del trazado, la topografía, la vegetación y las construcciones. El carácter actual de cuña dotacional en el entorno del río Manzanares y la repercusión en la estructura del recinto de su división en dos piezas de arquitecturas tan distintas, como la parte antigua y la parte nueva. Partiremos de una restitución gráfica y cronológica, con distinto grado de detalle, del conjunto y los pabellones seleccionados. Otras reflexiones se centraran en el papel del comisario y los arquitectos directores. Desde los condicionantes del encargo inicial, la ampliación del recinto y la gestión de la evolución de la feria en base a los requerimientos agrícolas,folklóricos, comerciales, industriales y turísticos. Una arquitectura que nace de capacidad de improvisar, la flexibilidad, la habilidad y el provecho de cada situación particular. La concreción en unos 40 pabellones y stands (una tercera parte de los que se construyeron), supone una elección en base a criterios de calidad y oportunidad. Son hitos o ejemplos de las distintas corrientes que clasificamos en populares y modernos, casi, como una conclusión preestablecida. El trabajo se orienta hacia las edificaciones modernas ya sea por su logro en la asimilación del ideal, su grado de experimentación e innovación técnica o su interés en la configuración de sus espacios expositivos. Se conservan más y mejor los pabellones populares, lo que nos obliga a la puesta en valor de los modernos, sin menospreciar el interés de los populares, que deberán estudiarse con mayor detalle en trabajos posteriores, a partir, del abundante material recopilado. El objetivo fundamental del trabajo ha sido conocer en profundidad la arquitectura de los pabellones representativos de cada periodo, intentando comprender y restituir el proceso proyectual desde una visión múltiple que comprenda las disciplinas que confluyen en el proyecto arquitectónico. La tesis ofrece la restitución escrita y dibujada del recinto y sus arquitecturas, además,de la interpretación y valoración del autor. La visión contemporánea de Alejandro de la Sota con su crítica arquitectónica de la primera feria, los invariantes expuestos por Fernando Chueca o las sesiones de crítica celebradas en la Revista Nacional, indican el camino que siguieron los autores de los pabellones de la feria y permiten profundizar en el diagnóstico de las ideas del momento, también, a partir de algunas entrevistas realizadas. Se estudian además las relaciones entre el estrecho círculo de autores, las nuevas tendencias y la influencia otros artistas plásticos. Finalmente, la documentación y análisis del material audiovisual, los noticieros, revistas y boletines de la Feria del Campo, permiten extraer conclusiones sobre la originalidad del trazado del recinto y los pabellones, su utilización, así como, el funcionamiento y aceptación social de la feria, desde la perspectiva de la apertura y evolución política y cultural de la transición hacia la democracia. La abundante documentación administrativa localizada admite concluir sobre la veracidad de las circunstancias que influyeron en la concepción y desarrollo del recinto y sus edificios, contrastando el testimonio de sus protagonistas a partir de la recreación propuesta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La valoración de carácter masivo implica la modelización de un mercado que, en la mayor parte de los casos, se compone de un producto heterogéneo y con problemas de transparencia en el conocimiento de sus precios, así como de sus características intrínsecas y extrínsecas. Por ello, toda valoración masiva debe llevar implícita la sistematización de una organización coordinada y una jerarquía de los valores de mercado existentes en la realidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El artículo presenta los resultados de una investigación sobre las tendencias culturales en el abandono de la actividad física y el deporte entre la juventud española. El estudio ha sido financiado por el Consejo Superior de Deportes (CSD) (Ref. 007/UPB10/12), en el marco de la Convocatoria de Ayudas a Universidades, Públicas y Privadas, Entidades Públicas y Entidades sin Fin de Lucro, para la realización de Proyectos de Investigación, Estudios, Organización de Actos Científi cos y Publicaciones Periódicas en Áreas de Interés Deportivo. En él se analiza cómo la adopción de ese nuevo estilo de vida (sedentario) que está progresivamente afianzándose entre la juventud española puede infl uir de una manera u otra en la percepción subjetiva de la salud y el bienestar entre este grupo de población. Para comprobarlo, se han llevado a cabo un conjunto de grupos de discusión con jóvenes de distintos perfi les sociodemográfi cos y socioeconómicos a lo largo de distintas ciudades españolas,además de entrevistas individuales en profundidad a una muestra estratégica de jóvenes. Los resultados muestran que la juventud es un colectivo heterogéneo en las formas de expresión cultural y sus motivaciones, que sus situaciones sociales cambian con la diferencia de edad y sexo, que sus estilos de vida están condicionados por sus condiciones sociales, que el sedentarismo se ha incorporado como modelo de vida desde la propia estructura social y que, muchas veces, a la juventud se la ve y se le habla, pero no se le escucha, lo que representa en el ámbito deportivo un despropósito para lograr su incorporación efectiva de este colectivo en la práctica del deporte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo trata cómo se pueden aplicar las técnicas de análisis de usabilidad al desarrollo de plataformas web. Actualmente es común que los servicios sean ofrecidos mediante plataformas web para un grupo muy heterogéneo de personas. Por otra parte, los análisis de usabilidad son una herramienta muy útil para conocer cómo interactúan las personas con los ordenadores y mejorar el diseño de las aplicaciones. Realizar un buen diseño permite mejorar la experiencia de usuario, factor fundamental para el éxito de cualquier producto que requiera interacción con el usuario. A continuación se describen las diferentes fases de los test de usabilidad y se detalla cómo han sido aplicadas durante el desarrollo del proyecto. Finalmente, se presentarán los resultados obtenidos durante la evaluación de la plataforma y el análisis de los mismos indicando cómo han afectado al diseño de la plataforma. ---ABSTRACT---This document discusses how to apply usability test techniques over web platform development. Nowadays, it is common that services are offered through web platforms for a large group of heterogeneous people. Moreover, usability tests are a very useful tool to understand human-computer interaction and improve the design of the applications. A good design can improve user experience, which is essential for the success of any product that requires user interaction. The following pages describes the different phases of usability testing and detail how these have been applied during the development of the project. Finally, the results obtained during the platform evaluation are presented and analysed, explaining how they have affected the design of the platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo analiza la relación entre la eficiencia productiva y las Redes Sociales Virtuales (RSV) en las empresas de telecomunicaciones en España. En una primera etapa, se aplica el análisis envolvente de datos (DEA) incorporando varios indicadores de actividad ?Social Media?. En una segunda etapa, se utiliza una regresión logística para caracterizar las empresas eficientes. Los resultados muestran que la capacidad de absorción y utilización de las RSV es un factor determinante en la mejora de la eficiencia productiva. La utilización combinada y las distintas capacidades de gestión de las RSV permiten identificarlas como un recurso heterogéneo. Este trabajo presenta un modelo para la evaluación del desempeño estratégico al abordar su presencia y actividad en RSV. ABSTRACT. This paper analyzes the relationship between the productive efficiency and the Online Social Networks - OSN in the Spanish telecommunications firms. First, a data envelopment analysis (DEA) is used and several indicators of business "Social Media" activities are incorporated. In a second stage, a logistic regression model regression is applied to characteri ze the efficient enterprises. Results show that the company's ability to absorb and utilize this OSN is a key factor in improving the productive efficiency. These results on the combined use and different management capabilities of OSN point to a definitio n of OSN as a heterogeneous resource. This paper presents a model for assessing the strategic performance to address their presence and activity in OSN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente investigación recoge una experiencia de innovación educativa de 13 años de duración que analiza las bondades e inconvenientes de utilizar redes temáticas orientadas a la educación de la ciudadanía. Esta experiencia se centra en la red temática Criptored fundada en 1999 en la Universidad Politécnica de Madrid. La experiencia publicada en este trabajo demuestra que una red temática puede ser no sólo un buen medio para difundir conocimiento de calidad entre especialistas, sino un buen generador de ideas y proyectos derivados con implicaciones formativas directas de la ciudadanía a través de Internet. Esta demostración se fundamenta en una serie de diferentes decisiones en la evolución de este proyecto, como son una estructuración docente de la información publicada, gestión de la calidad de los contenidos, definición de un esquema de difusión y compartición de información, generación de nuevo contenido basado en interacciones de miembros y no miembros de la red, etc., lo que facilita la apertura de una red temática a un público heterogéneo sin perder calidad ni excelencia. El impacto y la difusión de esta red en diversos sectores quedan retratados por los resultados. La red refleja un impacto significativo en universidades, centros de investigación, empresas TIC en España e Iberoamérica y en la sociedad en general: 243 universidades, centros de investigación y asociaciones de 22 países representados, 925 miembros de la red, 448 documentos para libre descarga, 14 libros electrónicos, 102 vídeos y más de 2.500.000 documentos servidos en 13 años.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los pacientes con infarto de miocardio, las características de la escara isquémica, incluyendo la extensión de tejido heterogéneo (TH) y los canales intraescara, se relacionan con la mortalidad arrítmica. Sin embargo, aún no se conoce bien la evolución temporal de la estructura de la escara en los primeros meses tras el infarto agudo de miocardio (IAM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El aprendizaje basado en problemas se lleva aplicando con éxito durante las últimas tres décadas en un amplio rango de entornos de aprendizaje. Este enfoque educacional consiste en proponer problemas a los estudiantes de forma que puedan aprender sobre un dominio particular mediante el desarrollo de soluciones a dichos problemas. Si esto se aplica al modelado de conocimiento, y en particular al basado en Razonamiento Cualitativo, las soluciones a los problemas pasan a ser modelos que representan el compotamiento del sistema dinámico propuesto. Por lo tanto, la tarea del estudiante en este caso es acercar su modelo inicial (su primer intento de representar el sistema) a los modelos objetivo que proporcionan soluciones al problema, a la vez que adquieren conocimiento sobre el dominio durante el proceso. En esta tesis proponemos KaiSem, un método que usa tecnologías y recursos semánticos para guiar a los estudiantes durante el proceso de modelado, ayudándoles a adquirir tanto conocimiento como sea posible sin la directa supervisión de un profesor. Dado que tanto estudiantes como profesores crean sus modelos de forma independiente, estos tendrán diferentes terminologías y estructuras, dando lugar a un conjunto de modelos altamente heterogéneo. Para lidiar con tal heterogeneidad, proporcionamos una técnica de anclaje semántico para determinar, de forma automática, enlaces entre la terminología libre usada por los estudiantes y algunos vocabularios disponibles en la Web de Datos, facilitando con ello la interoperabilidad y posterior alineación de modelos. Por último, proporcionamos una técnica de feedback semántico para comparar los modelos ya alineados y generar feedback basado en las posibles discrepancias entre ellos. Este feedback es comunicado en forma de sugerencias individualizadas que el estudiante puede utilizar para acercar su modelo a los modelos objetivos en cuanto a su terminología y estructura se refiere. ABSTRACT Problem-based learning has been successfully applied over the last three decades to a diverse range of learning environments. This educational approach consists of posing problems to learners, so they can learn about a particular domain by developing solutions to them. When applied to conceptual modeling, and particularly to Qualitative Reasoning, the solutions to problems are models that represent the behavior of a dynamic system. Therefore, the learner's task is to move from their initial model, as their first attempt to represent the system, to the target models that provide solutions to that problem while acquiring domain knowledge in the process. In this thesis we propose KaiSem, a method for using semantic technologies and resources to scaffold the modeling process, helping the learners to acquire as much domain knowledge as possible without direct supervision from the teacher. Since learners and experts create their models independently, these will have different terminologies and structure, giving rise to a pool of models highly heterogeneous. To deal with such heterogeneity, we provide a semantic grounding technique to automatically determine links between the unrestricted terminology used by learners and some online vocabularies of the Web of Data, thus facilitating the interoperability and later alignment of the models. Lastly, we provide a semantic-based feedback technique to compare the aligned models and generate feedback based on the possible discrepancies. This feedback is communicated in the form of individualized suggestions, which can be used by the learner to bring their model closer in terminology and structure to the target models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis de las diferentes alternativas en la planificación y diseño de corredores y trazados de carreteras debe basarse en la correcta definición de variables territoriales que sirvan como criterios para la toma de decisión y esto requiere un análisis ambiental preliminar de esas variables de calidad. En España, los estudios de viabilidad de nuevas carreteras y autovías están asociados a una fase del proceso de decisión que se corresponde con el denominado Estudio Informativo, el cual establece condicionantes físicos, ambientales, de uso del suelo y culturales que deben ser considerados en las primeras fases de la definición del trazado de un corredor de carretera. Así, la metodología más frecuente es establecer diferentes niveles de capacidad de acogida del territorio en el área de estudio con el fin de resumir las variables territoriales en mapas temáticos y facilitar el proceso de trazado de las alternativas de corredores de carretera. El paisaje es un factor limitante a tener en cuenta en la planificación y diseño de carreteras y, por tanto, deben buscarse trazados más sostenibles en relación con criterios estéticos y ecológicos del mismo. Pero este factor no es frecuentemente analizado en los Estudios Informativos e incluso, si es considerado, los estudios específicos de la calidad del paisaje (estético y ecológico) y de las formas del terreno no incorporan las recomendaciones de las guías de trazado para evitar o reducir los impactos en el paisaje. Además, los mapas de paisaje que se generan en este tipo de estudios no se corresponden con la escala de desarrollo del Estudio Informativo (1:5.000). Otro déficit común en planificación de corredores y trazados de carreteras es que no se tiene en cuenta la conectividad del paisaje durante el proceso de diseño de la carretera para prevenir la afección a los corredores de fauna existentes en el paisaje. Este déficit puede originar un posterior efecto barrera en los movimientos dispersivos de la fauna y la fragmentación de sus hábitats debido a la ocupación parcial o total de las teselas de hábitats con importancia biológica para la fauna (o hábitats focales) y a la interrupción de los corredores de fauna que concentran esos movimientos dispersivos de la fauna entre teselas. El objetivo principal de esta tesis es mejorar el estudio del paisaje para prevenir su afección durante el proceso de trazado de carreteras, facilitar la conservación de los corredores de fauna (o pasillos verdes) y la localización de medidas preventivas y correctoras en términos de selección y cuantificación de factores de idoneidad a fin de reducir los impactos visuales y ecológicos en el paisaje a escala local. Concretamente, la incorporación de valores cuantitativos y bien justificados en el proceso de decisión permite incrementar la transparencia en el proceso de diseño de corredores y trazados de carreteras. Con este fin, se han planteado cuatro preguntas específicas en esta investigación (1) ¿Cómo se seleccionan y evalúan los factores territoriales limitantes para localizar una nueva carretera por los profesionales españoles de planificación del territorio en relación con el paisaje? (2) ¿Cómo pueden ser definidos los corredores de fauna a partir de factores del paisaje que influyen en los movimientos dispersivos de la fauna? (3) ¿Cómo pueden delimitarse y evaluarse los corredores de fauna incluyendo el comportamiento parcialmente errático en los movimientos dispersivos de la fauna y el efecto barrera de los elementos antrópicos a una escala local? (4) ¿Qué y cómo las recomendaciones de diseño de carreteras relacionadas con el paisaje y las formas del terreno pueden ser incluidas en un modelo de Sistemas de Información Geográfica (SIG) para ayudar a los ingenieros civiles durante el proceso de diseño de un trazado de carreteras bajo el punto de vista de la sostenibilidad?. Esta tesis doctoral propone nuevas metodologías que mejoran el análisis visual y ecológico del paisaje utilizando indicadores y modelos SIG para obtener alternativas de trazado que produzcan un menor impacto en el paisaje. Estas metodologías fueron probadas en un paisaje heterogéneo con una alta tasa de densidad de corzo (Capreolus capreolus L.), uno de los grandes mamíferos más atropellados en la red de carreteras españolas, y donde está planificada la construcción de una nueva autovía que atravesará la mitad del área de distribución del corzo. Inicialmente, se han analizado las variables utilizadas en 22 estudios de proyectos de planificación de corredores de carreteras promovidos por el Ministerio de Fomento entre 2006 y 2008. Estas variables se agruparon según condicionantes físicos, ambientales, de usos del suelo y culturales con el fin de comparar los valores asignados de capacidad de acogida del territorio a cada variable en los diferentes estudios revisados. Posteriormente, y como etapa previa de un análisis de conectividad, se construyó un mapa de resistencia de los movimientos dispersivos del corzo en base a la literatura y al juicio de expertos. Usando esta investigación como base, se le asignó un valor de resistencia a cada factor seleccionado para construir la matriz de resistencia, ponderándolo y combinándolo con el resto de factores usando el proceso analítico jerárquico y los operadores de lógica difusa como métodos de análisis multicriterio. Posteriormente, se diseñó una metodología SIG para delimitar claramente la extensión física de los corredores de fauna de acuerdo a un valor umbral de ancho geométrico mínimo, así como la existencia de múltiples potenciales conexiones entre cada par de teselas de hábitats presentes en el paisaje estudiado. Finalmente, se realizó un procesado de datos Light Detection and Ranging (LiDAR) y un modelo SIG para calcular la calidad del paisaje (estético y ecológico), las formas del terreno que presentan características similares para trazar una carretera y la acumulación de vistas de potenciales conductores y observadores de los alrededores de la nueva vía. Las principales contribuciones de esta investigación al conocimiento científico existente en el campo de la evaluación del impacto ambiental en relación al diseño de corredores y trazados de carreteras son cuatro. Primero, el análisis realizado de 22 Estudios Informativos de planificación de carreteras reveló que los métodos aplicados por los profesionales para la evaluación de la capacidad de acogida del territorio no fue suficientemente estandarizada, ya que había una falta de uniformidad en el uso de fuentes cartográficas y en las metodologías de evaluación de la capacidad de acogida del territorio, especialmente en el análisis de la calidad del paisaje estético y ecológico. Segundo, el análisis realizado en esta tesis destaca la importancia de los métodos multicriterio para estructurar, combinar y validar factores que limitan los movimientos dispersivos de la fauna en el análisis de conectividad. Tercero, los modelos SIG desarrollados Generador de alternativas de corredores o Generator of Alternative Corridors (GAC) y Eliminador de Corredores Estrechos o Narrow Corridor Eraser (NCE) pueden ser aplicados sistemáticamente y sobre una base científica en análisis de conectividad como una mejora de las herramientas existentes para la comprensión el paisaje como una red compuesta por nodos y enlaces interconectados. Así, ejecutando los modelos GAC y NCE de forma iterativa, pueden obtenerse corredores alternativos con similar probabilidad de ser utilizados por la fauna y sin que éstos presenten cuellos de botella. Cuarto, el caso de estudio llevado a cabo de prediseño de corredores y trazado de una nueva autovía ha sido novedoso incluyendo una clasificación semisupervisada de las formas del terreno, filtrando una nube de puntos LiDAR e incluyendo la nueva geometría 3D de la carretera en el Modelo Digital de Superficie (MDS). El uso combinado del procesamiento de datos LiDAR y de índices y clasificaciones geomorfológicas puede ayudar a los responsables encargados en la toma de decisiones a evaluar qué alternativas de trazado causan el menor impacto en el paisaje, proporciona una visión global de los juicios de valor más aplicados y, en conclusión, define qué medidas de integración paisajística correctoras deben aplicarse y dónde. ABSTRACT The assessment of different alternatives in road-corridor planning and layout design must be based on a number of well-defined territorial variables that serve as decision-making criteria, and this requires a high-quality preliminary environmental analysis of those quality variables. In Spain, feasibility studies for new roads and motorways are associated to a phase of the decision procedure which corresponds with the one known as the Informative Study, which establishes the physical, environmental, land-use and cultural constraints to be considered in the early stages of defining road corridor layouts. The most common methodology is to establish different levels of Territorial Carrying Capacity (TCC) in the study area in order to summarize the territorial variables on thematic maps and facilitate the tracing process of road-corridor layout alternatives. Landscape is a constraint factor that must be considered in road planning and design, and the most sustainable layouts should be sought based on aesthetic and ecological criteria. However this factor is not often analyzed in Informative Studies and even if it is, baseline studies on landscape quality (aesthetic and ecological) and landforms do not usually include the recommendations of road tracing guides designed to avoid or reduce impacts on the landscape. The resolution of the landscape maps produced in this type of studies does not comply with the recommended road design scale (1:5,000) in the regulations for the Informative Study procedure. Another common shortcoming in road planning is that landscape ecological connectivity is not considered during road design in order to avoid affecting wildlife corridors in the landscape. In the prior road planning stage, this issue could lead to a major barrier effect for fauna dispersal movements and to the fragmentation of their habitat due to the partial or total occupation of habitat patches of biological importance for the fauna (or focal habitats), and the interruption of wildlife corridors that concentrate fauna dispersal movements between patches. The main goal of this dissertation is to improve the study of the landscape and prevent negative effects during the road tracing process, and facilitate the preservation of wildlife corridors (or green ways) and the location of preventive and corrective measures by selecting and quantifying suitability factors to reduce visual and ecological landscape impacts at a local scale. Specifically the incorporation of quantitative and well-supported values in the decision-making process provides increased transparency in the road corridors and layouts design process. Four specific questions were raised in this research: (1) How are territorial constraints selected and evaluated in terms of landscape by Spanish land-planning practitioners before locating a new road? (2) How can wildlife corridors be defined based on the landscape factors influencing the dispersal movements of fauna? (3) How can wildlife corridors be delimited and assessed to include the partially erratic movements of fauna and the barrier effect of the anthropic elements at a local scale? (4) How recommendations of road design related to landscape and landforms can be included in a Geographic Information System (GIS) model to aid civil engineers during the road layout design process and support sustainable development? This doctoral thesis proposes new methodologies that improve the assessment of the visual and ecological landscape character using indicators and GIS models to obtain road layout alternatives with a lower impact on the landscape. These methodologies were tested on a case study of a heterogeneous landscape with a high density of roe deer (Capreolus capreolus L.) –one of the large mammals most commonly hit by vehicles on the Spanish road network– and where a new motorway is planned to pass through the middle of their distribution area. We explored the variables used in 22 road-corridor planning projects sponsored by the Ministry of Public Works between 2006 and 2008. These variables were grouped into physical, environmental, land-use and cultural constraints for the purpose of comparing the TCC values assigned to each variable in the various studies reviewed. As a prior stage in a connectivity analysis, a map of resistance to roe deer dispersal movements was created based on the literature and experts judgment. Using this research as a base, each factor selected to build the matrix was assigned a resistance value and weighted and combined with the rest of the factors using the analytic hierarchy process (AHP) and fuzzy logic operators as multicriteria assessment (MCA) methods. A GIS methodology was designed to clearly delimit the physical area of wildlife corridors according to a geometric threshold width value, and the multiple potential connections between each pair of habitat patches in the landscape. A Digital Surface Model Light Detection and Ranging (LiDAR) dataset processing and a GIS model was performed to determine landscape quality (aesthetic and ecological) and landforms with similar characteristics for the road layout, and the cumulative viewshed of potential drivers and observers in the area surrounding the new motorway. The main contributions of this research to current scientific knowledge in the field of environmental impact assessment for road corridors and layouts design are four. First, the analysis of 22 Informative Studies on road planning revealed that the methods applied by practitioners for assessing the TCC were not sufficiently standardized due to the lack of uniformity in the cartographic information sources and the TCC valuation methodologies, especially in the analysis of the aesthetic and ecological quality of the landscape. Second, the analysis in this dissertation highlights the importance of multicriteria methods to structure, combine and validate factors that constrain wildlife dispersal movements in the connectivity analysis. Third, the “Generator of Alternative Corridors (GAC)” and “Narrow Corridor Eraser (NCE)” GIS models developed can be applied systematically and on a scientific basis in connectivity analyses to improve existing tools and understand landscape as a network composed of interconnected nodes and links. Thus, alternative corridors with similar probability of use by fauna and without bottlenecks can be obtained by iteratively running GAC and NCE models. Fourth, our case study of new motorway corridors and layouts design innovatively included semi-supervised classification of landforms, filtering of LiDAR point clouds and new 3D road geometry on the Digital Surface Model (DSM). The combined used of LiDAR data processing and geomorphological indices and classifications can help decision-makers assess which road layouts produce lower impacts on the landscape, provide an overall insight into the most commonly applied value judgments, and in conclusion, define which corrective measures should be applied in terms of landscaping, and where.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo de investigación presenta los resultados de una revisión sistemática realizada a partir de la recopilación, lectura y análisis de distintas fuentes bibliográficas dentro de un conjunto heterogéneo consistente de 175 estudios que forman la base bibliográfica actual del documento “Cognitive Accessibility User Research” (W3C, 2015a) del W3C. Esta base bibliográfica está compuesta por publicaciones científicas basadas en libros, artículos, conferencias y sitios Web especializados, en los cuales se potencia como objeto particular de análisis, la indagación en la búsqueda de pautas de accesibilidad en las tecnologías Web que apoyen la integración a personas con discapacidad cognitiva. Como parte de este proceso de investigación se ha recopilado y descrito la situación actual, particularmente, de los retos en la utilización de las tecnologías de la información y la comunicación (TIC) en relación a personas con dificultades de aprendizaje o discapacidades cognitivas, tales como la Dislexia, Afasia, Trastorno de Aprendizaje No verbal, Envejecimiento-Demencia, Trastornos por Déficit de Atención con o sin Hiperactividad, Autismo, Síndrome de Down y Discalculia. Como aporte primordial de este Trabajo Fin de Master (TFM), se intenta trazar una línea de criterios que permitan la evaluación objetiva de este tópico, con miras a ofrecer un enfoque práctico y reciente sobre ésta temática, mostrando de forma esquematizada las pautas existentes y sirviendo de síntesis orientativa para el diseño accesible de las TIC con la finalidad de promover un soporte real a personas con los tipo de discapacidad cognitiva en los que se ha enfocado esta investigación. Logrando obtener como resultado principal de este estudio, 36 pautas generales que agrupan las coincidencias del grupo de discapacidades estudiadas y que han sido distribuidas en categorías: texto, navegación y generales, para su mejor interpretación y manejo de la Accesibilidad en las TIC´S para Personas con Discapacidad Cognitiva.---ABSTRACT---This research presents the results of a systematic review from collecting, reading and analysis of different bibliographic sources within a heterogeneous group consisting of 175 studies that form the basis of current literature document "Accessibility User Cognitive Research" (W3C , 2015th) of the W3C. This bibliographic database is composed of scientific publications based on books, articles, lectures and specialized Web sites, in which is enhanced as a particular object of analysis, the inquiry into the search for accessibility guidelines for Web technologies to support integration of people with cognitive disabilities. As part of this research process, the current situation has been collected and described, particularly the challenges in the use of information and communications technology (ICT) in relation to people with learning disabilities or cognitive disabilities, such as Dyslexia, aphasia, nonverbal learning disorder, aging-Dementia, Attention Deficit Disorders with or without hyperactivity, autism, Down syndrome and dyscalculia. As primary contribution of this Master's Thesis (TFM), it tries to draw a line of criteria to allow an objective assessment of this topic, in order to provide a practical and recent focus on this theme, showing schematically existing guidelines and serving as guidance for accessible design of ICT in order to promote a real support to people with cognitive disabilities where this research has focused on. Managing to obtain the main result of this study, 36 general guidelines that group the set of disabilities studied and have been distributed in categories: text, navigation and general, for better interpretation and management of ICTs for Accessibility people with cognitive disabilities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A raíz de la aparición de los procesadores dotados de varios “cores”, la programación paralela, un concepto que, por otra parte no era nada nuevo y se conocía desde hace décadas, sufrió un nuevo impulso, pues se creía que se podía superar el techo tecnológico que había estado limitando el rendimiento de esta programación durante años. Este impulso se ha ido manteniendo hasta la actualidad, movido por la necesidad de sistemas cada vez más potentes y gracias al abaratamiento de los costes de fabricación. Esta tendencia ha motivado la aparición de nuevo software y lenguajes con componentes orientados precisamente al campo de la programación paralela. Este es el caso del lenguaje Go, desarrollado por Google y lanzado en 2009. Este lenguaje se basa en modelos de concurrencia que lo hacen muy adecuados para abordar desarrollos de naturaleza paralela. Sin embargo, la programación paralela es un campo complejo y heterogéneo, y los programadores son reticentes a utilizar herramientas nuevas, en beneficio de aquellas que ya conocen y les son familiares. Un buen ejemplo son aquellas implementaciones de lenguajes conocidos, pero orientadas a programación paralela, y que siguen las directrices de un estándar ampliamente reconocido y aceptado. Este es el caso del estándar OpenMP, un Interfaz de Programación de Aplicaciones (API) flexible, portable y escalable, orientado a la programación paralela multiproceso en arquitecturas multi-core o multinucleo. Dicho estándar posee actualmente implementaciones en los lenguajes C, C++ y Fortran. Este proyecto nace como un intento de aunar ambos conceptos: un lenguaje emergente con interesantes posibilidades en el campo de la programación paralela, y un estándar reputado y ampliamente extendido, con el que los programadores se encuentran familiarizados. El objetivo principal es el desarrollo de un conjunto de librerías del sistema (que engloben directivas de compilación o pragmas, librerías de ejecución y variables de entorno), soportadas por las características y los modelos de concurrencia propios de Go; y que añadan funcionalidades propias del estándar OpenMP. La idea es añadir funcionalidades que permitan programar en lenguaje Go utilizando la sintaxis que OpenMP proporciona para otros lenguajes, como Fortan y C/C++ (concretamente, similar a esta última), y, de esta forma, dotar al usuario de Go de herramientas para programar estructuras de procesamiento paralelo de forma sencilla y transparente, de la misma manera que lo haría utilizando C/C++.---ABSTRACT---As a result of the appearance of processors equipped with multiple "cores ", parallel programming, a concept which, moreover, it was not new and it was known for decades, suffered a new impulse, because it was believed they could overcome the technological ceiling had been limiting the performance of this program for years. This impulse has been maintained until today, driven by the need for ever more powerful systems and thanks to the decrease in manufacturing costs. This trend has led to the emergence of new software and languages with components guided specifically to the field of parallel programming. This is the case of Go language, developed by Google and released in 2009. This language is based on concurrency models that make it well suited to tackle developments in parallel nature. However, parallel programming is a complex and heterogeneous field, and developers are reluctant to use new tools to benefit those who already know and are familiar. A good example are those implementations from well-known languages, but parallel programming oriented, and witch follow the guidelines of a standard widely recognized and accepted. This is the case of the OpenMP standard, an application programming interface (API), flexible, portable and scalable, parallel programming oriented, and designed for multi-core architectures. This standard currently has implementations in C, C ++ and Fortran. This project was born as an attempt to combine two concepts: an emerging language, with interesting possibilities in the field of parallel programming, and a reputed and widespread standard, with which programmers are familiar with. The main objective is to develop a set of system libraries (which includes compiler directives or pragmas, runtime libraries and environment variables), supported by the characteristics and concurrency patterns of Go; and that add custom features from the OpenMP standard. The idea is to add features that allow programming in Go language using the syntax OpenMP provides for other languages, like Fortran and C / C ++ (specifically, similar to the latter ), and, in this way, provide Go users with tools for programming parallel structures easily and, in the same way they would using C / C ++.