58 resultados para Bondad sustancial

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se analiza a continuación la regulación de los criterios de valoración de suelo y de otros bienes y derechos en la Ley 8/2007, de 28 de mayo, de suelo, que modifica de forma sustancial el régimen urbanístico del derecho de propiedad, y, en consecuencia, el sistema de valoraciones vinculado a aquel

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Ingeniería de Requisitos (IR) es una actividad crucial en el desarrollo de software. La calidad del producto final queda supeditada a la captura de requisitos cuyo éxito depende, en buena parte, de las técnicas de educción utilizadas. Sin embargo, los ingenieros siguen teniendo dificultades para distinguir ventajas y limitaciones entre la gran cantidad de técnicas existentes. En este estudio se utiliza el emparrillado para conocer la percepción de los ingenieros noveles acerca de las técnicas de educción y su comparación con la visión experta. Los resultados, que muestran una sustancial diferencia entre ambas visiones, son la base para la modificación de estrategias formativas. Además, el análisis detallado de las características contextuales de la educción en IR facilitará la selección de la técnica más apropiada para un contexto dado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el artículo introduciremos en primer lugar el nuevo entorno en que se enmarca el cambio sustancial en la naturaleza de la Web tal y como la conocemos. Adoptaremos para ello un enfoque híbrido, diseccionando con un poco más de detalle los elementos tecnológicos, socioeconómicos, administrativos y legislativos que, a nuestro parecer, pueden conformar el contexto que enmarcaría un escenario factible para la introducción de una Gobernanza 2.0 ?de nueva generación? capaz de integrar de una manera sostenible ?ecosistémicamente viable? tecnologías y procesos que soporten de forma natural el paso de una era post-industrial de la información en la que vivimos hace unos años, hacia una sociedad de la información, poblada por verdaderos infociudadanos (nativos digitales en una creciente mayoría) y que debería ser sólo el paso previo para la última utopía: la sociedad del conocimiento, un estadio de la evolución sociotécnica al que se pretende llegar por el ancestral método de la profecía autocumplida, ignorando una realidad vigente considerablemente compleja.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentro de la amplia diversidad de rocas y minerales industriales que yacen en la República de Guinea Ecuatorial se encuentran los yacimientos e indicios de arenas silíceas de Bioko Norte. Las escasas crónicas mencionan actividades de explotación esporádica y temporera en tres pequeñas cortas, actualmente paralizadas, que se ubican en la aldea de El Cacahual, aproximadamente al suroeste de la ciudad de Malabo, destinadas a la fabricación de morteros para pequeñas construcciones locales. Sin embargo, no se registran estudios sobre la composición y la calidad tecnológica de estos materiales. Los recientes trabajos de investigación llevados a cabo por investigadores de la Escuela de Minas de Madrid y la Universidad de Moa (Cuba), con la colaboración de profesores de la Universidad Nacional de Guinea Ecuatorial, y cuyos resultados se ofrecen en estas líneas, incluyeron campaña de muestreo, caracterización y aplicaciones de estos materiales. Las primeras conclusiones establecen que en la composición sustancial de estos yacimientos aparece el cuarzo como principal fase mineral, acompañado por feldespato, caolinita, mica moscovita e illita (DRX). El estudio morfológico de las muestras por medio de la microscopía electrónica de barrido (MEB) permitió describir granos con dimensiones muy cercanas y con formas angulosas, subangulosas y ocasionalmente subredondeadas, que indican un transporte escaso o casi nulo; esta evidencia infiere la naturaleza residual de estos yacimientos, formados a partir de la alteración y posterior redeposición eluvial de un supuesto protolito de composición granitoide. Por otra parte, la presencia de fases representadas por dolomita y hematita podrían ser el testimonio de la acción de procesos hidrotermales que afectaron a estas formaciones. Otras tareas que complementaron esta investigación, como el estudio granulométrico, contenido en materia orgánica y ensayos de resistencias mecánicas, que fueron realizadas por el Laboratorio Oficial para Ensayos de Materiales de Construcción (LOEMCO), corroboran la calidad tecnológica de estas arenas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo se realiza un análisis teórico – experimental de un paso superior de autopista instrumentado para medir deformaciones, desplazamientos y temperatura. Además, se realiza una descripción de los puentes integrales en general, describiendo sus particularidades, ventajas e inconvenientes y el posible ámbito de aplicación que tienen en las redes de infraestructuras. En primer lugar, se describe el puente instrumentado, tanto en cuanto a su geométria, dimensiones y materiales, como en cuanto a la instrumentación empleada para su estudio. Posteriormente se analizan de forma pormenorizada las diferentes acciones que afectan de forma relevante a los puentes en general, y muy especialmente a los puentes integrales, como son las acciones de peso propio, carga muerta y pretensado, y de forma especial la acción térmica y las acciones reológicas de retracción y fluencia. La acción de temperatura se analiza de forma pormenorizada obteniendo representaciones de las componentes uniforme de temperatura, y de los gradientes lineales y no lineales respectivamente, a partir de las temperaturas instrumentadas en los distintos puntos de varias secciones. Se comparan estos resultados con los valores normativos. Posteriormente se realiza un análisis de los fenómenos reológicos, estudiando la influencia de los diferentes parámetros que influyen en su desarrollo, tanto según las normativas vigentes como según otras formulaciones, como es la formulación de Bazant. Se realizan comprobaciones respecto a la bondad de las leyes que gobiernan el comportamiento reológico del hormigón para distintas series experimentales, tanto del grupo de Hormigón Estructural de la UPM como de la serie RILEM. Finalmente, a partir de ese estudio se trata de obtener conclusiones respecto a las leyes específicas que gobiernan el comportamiento reológico de los hormigones empleados en la obra. Procesando los resultados experimentales de deformaciones en distintos puntos de varias secciones transversales del puente se obtienen deformaciones medias y curvaturas. Por otro lado, se dispone de registros de desplazamientos y giros en distintos puntos del puente. Se contrastan las estimaciones realizadas tanto de las componentes de temperatura como de los planos de ajuste de deformación. Para ello se comparan la integración de deformaciones medias y curvaturas a lo largo del puente con los registros de desplazamientos y giros respectivamente. Finalmente, se realizan estimaciones teóricas de rangos tanto de deformaciones como de movimientos a lo largo del puente y se comparan con los valores experimentales medidos y estimados, comprobándose que puede obtenerse una predicción realista del comportamiento complejo de un puente integral mediante métodos sencillos, teniendo en cuenta factores de incertidumbre provenientes sobre todo de las acciones reológicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el capítulo dedicado a la calidad de la estación, como primera etapa se realiza una exhaustiva revisión bibliográfica a partir de la cual se comprueba que los métodos más precisos para determinar esta calidad, en términos generales, son aquellos basados en la relación de la altura con la edad. En base a los datos que se encuentran disponibles y como fruto de esta revisión bibliográfica, se decide probar tres métodos: uno de ellos que estudia la evolución de la altura en función del diámetro (MEYER) y los otros dos en función de la edad (BAILEY y CLUTTER y GARCÍA). Para probar estos métodos, se utilizan datos de parcelas de producción distribuidas en los tres principales sistemas montañosos de España: Ibérico, Central y Pirenaico. El modelo de MEYER implica una clasificación previa de las parcelas en función de su clase de sitio y los ajustes se realizan para cada clase, con lo que se obtienen cuatro curvas polimórficas. La ecuación que describe este modelo es: H = 1.3 + s(1-e-bD) El modelo de BAILEY y CLUTTER genera también un sistema de curvas polimórficas y se genera a partir de la relación entre el 1og de la altura y la inversa de la edad: log H = a + b¡(1/AC) Este método implica una agrupación o estratificación de las parcelas en clases de sitio. Por último, se prueba el modelo de GARCÍA que se basa en una ecuación diferencial estocástica: dHc(t) = b(ac-Hc(t)) + a(t)dw(t) y se prueba la siguiente estructura paramétrica: a b c °"0 o *o H0 global 1 oca 1 g1obal 0.00 global 0.00 0.0 Posteriormente se hace un análisis de los residuos en que se aplica la prueba de Durbin-Watson que detecta la presencia de correlación serial. Se verifica la forma aproximada a un "cometa" en los residuos, lo que es frecuente en series de tiempo cuando la magnitud analizada (en nuestro caso, la altura dominante) se acumula en el tiempo. Esta prueba no es concluyente en el sentido de que no aclara que modelo es el más apropiado. Finalmente, se validan estos modelos utilizando datos de las parcelas de clara. Para esto se utiliza información de arboles tipo sometidos a análisis de tronco. Esta validación permite concluir que el modelo de GARCÍA es el que mejor explica la evolución del crecimiento en altura. En el capítulo dedicado a las distribuciones diamétricas, se pretende modelizar dichas distribuciones a través de variables de estado. Para esto, como primera etapa, se prueban para 45 parcelas y tres inventarios, las siguientes funciones: - Normal - Gamma - Ln de dos parámetros - Ln de tres parámetros - Beta I I - Wei bul 1 Mediante el uso de chi-cuadrado como estimador de la bondad del ajuste, se determina que la función de Weibull es la que mejor responde a la distribución diamétrica de nuestras parcelas. Posteriormente, se comprueba la bondad de dicho ajuste, mediante la prueba de Kolmogorov-Smirnov, el que determina que en el 99X de los casos, el ajuste es aceptable. Luego se procede a la recuperación de 1 os*parámetros de la función de Weibull; a, b y c. En esta etapa se estratifica la información y se realizan análisis de varianza (ANOVA) y pruebas de medias de TUKEY que dan como resultado el que se continúe trabajando por tratamiento y por inventario quedando la diferencia entre sitios absorbida por la altura dominante. Para la recuperación de los parámetros, se utilizan las variables de estado que definen a nuestras parcelas; edad, densidad, altura dominante, diámetro medio cuadrático y área basimétrica. El método seguido es la obtención de ecuaciones de regresión con las variables de estado como independientes para predecir los valores de los parámetros antes mencionados. Las ecuaciones se obtienen utilizando distintas vías (STEPWISE, ENTER y RSQUARE) lo que nos proporciona abundante material para efectuar la selección de éstas. La selección de las mejores ecuaciones se hace en base a dos estadísticos conocidos: - Coeficiente de determinación ajustado: R2 a - Cp de MALLOWS Estos elementos se tratan en forma conjunta considerando, además, que el número de parámetros esté en concordancia con el número de datos. El proceso de selección implica que se obtengan 36 ecuaciones de regresión que posteriormente se validan en dos sentidos. Por una parte, se calcula el valor de cada parámetro según la ecuación que le corresponda y se compara con el valor de los parámetros calculados en el ajuste de Weibull. Lo que se puede deducir de esta etapa es que la distorsión que sufren los parámetros al efectuar ecuaciones de regresión, es relativamente baja y la diferencia se produce debido a errores que se originan al realizar los modelos. Por otra parte, con las parcelas que se encuentren disponibles, se valida el modelo en el sentido de hacer el proceso inverso al anterior, es decir a partir de sus variables de estado, fácilmente medibles, se obtienen los valores de los parámetros que definen a la función de Weibull. Con esto se reconstruye la distribución diamétrica de cada función. Los resultados que se obtienen de esto indican que los ajustes son aceptables a un nivel del 1X en el caso de tres parcelas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los requisitos cada vez más exigentes en cuanto a misiones, limitaciones operacionales y ambientales así como nuevas tecnologías, imponen permanentemente retos a los arquitectos navales para generar alternativas de buques y valorar su bondad en las primeras etapas del proyecto. Este es el caso de los Buques Patrulleros de Apoyo Fluvial Pesados PAF-P, que por requerimiento de la Armada Nacional de Colombia ha diseñado y construido COTECMAR. Los PAF-P, son buques fluviales cuya relación Manga-Calado excede la mayoría de los buques existentes (B/T=9,5), debido principalmente a las restricciones en el calado a consecuencia de la escasa profundidad de los ríos. Estos buques están equipados con sistemas de propulsión acimutales tipo “Pum-Jet”. Las particularidades del buque y del ambiente operacional, caracterizado por ríos tropicales con una variabilidad de profundidad dependiente del régimen de lluvias y sequía, así como la falta de canalización y la corriente, hacen que la maniobrabilidad y controlabilidad sean fundamentales para el cumplimiento de su misión; adicionalmente, no existen modelos matemáticos validados que permitan predecir en las primeras etapas del diseño la maniobrabilidad de este tipo de buques con los efectos asociados por profundidad. La presente tesis doctoral aborda el desarrollo de un modelo matemático para simulación de maniobrabilidad en aguas poco profundas de buques con relación manga-calado alta y con propulsores acimutales tipo “Pump-Jet”, cuyo chorro además de entregar el empuje necesario para el avance del buque, genera la fuerza de gobierno en función del ángulo de orientación del mismo, eliminando la necesidad de timones. El modelo matemático ha sido validado mediante los resultados obtenidos en las pruebas de maniobrabilidad a escala real del PAF-P, a través de la comparación de trayectorias, series temporales de las variables de estado más significativas y parámetros del círculo evolutivo como son diámetro de giro, diámetro táctico, avance y transferencia. El plan de pruebas se basó en técnicas de Diseño de Experimentos “DOE” para racionalizar el número de corridas en diferentes condiciones de profundidad, velocidad y orientación del chorro (ángulo de timón). En el marco de la presente investigación y para minimizar los errores por efectos ambientales y por inexactitud en los instrumentos de medición, se desarrolló un sistema de adquisición y procesamiento de datos de acuerdo con los lineamientos de ITTC. La literatura existente describe los efectos negativos de la profundidad en los parámetros de maniobrabilidad de buques convencionales (Efecto tipo S), principalmente las trayectorias descritas en los círculos evolutivos aumentan en la medida que disminuye la profundidad; no obstante, en buques de alta relación manga-calado, B/T=7,51 (Yoshimura, y otros, 1.988) y B/T=6,38 (Yasukawa, y otros, 1.995) ha sido reportado el efecto contrario (Efecto tipo NS Non Standart). Este último efecto sin embargo, ha sido observado mediante experimentación con modelos a escala pero no ha sido validado en pruebas de buques a escala real. El efecto tipo NS en buques dotados con hélice y timones, se atribuye al mayor incremento de la fuerza del timón comparativamente con las fuerzas del casco en la medida que disminuye la profundidad; en el caso de estudio, el fenómeno está asociado a la mejor eficiencia de la bomba de agua “Pump-Jet”, debido a la resistencia añadida en el casco por efecto de la disminución de la profundidad. Los resultados de las pruebas con buque a escala real validan el excelente desempeño de esta clase de buques, cumpliendo en exceso los criterios de maniobrabilidad existentes y muestran que el diámetro de giro y otras características de maniobrabilidad mejoran con la disminución de la profundidad en buques con alta relación manga-calado. ABSTRACT The increasingly demanding requirements in terms of missions, operational and environmental constraints as well as new technologies, constantly impose challenges to naval architects to generate alternatives and asses their performance in the early stages of design. That is the case of Riverine Support Patrol Vessel (RSPV), designed and built by COTECMAR for the Colombian Navy. RSPV are riverine ships with a Beam-Draft ratio exceeding most of existing ships (B/T=9,5), mainly due to the restrictions in draft as a result of shallow water environment. The ships are equipped with azimuthal propulsion system of the “Pump-Jet” type. The peculiarities of the ship and the operational environment, characterized by tropical rivers of variable depth depending on the rain and dry seasons, as well as the lack channels and the effect of water current, make manoeuvrability and controllability fundamental to fulfill its mission; on the other hand, there are not validated mathematical models available to predict the manoeuvrability of such ships with the associated water depth effects in the early stages of design. This dissertation addresses the development of a mathematical model for shallow waters’ manoeuvrability simulation of ships with high Beam-Draft ratio and azimuthal propulsion systems type “Pump-Jet”, whose stream generates the thrust required by the ship to advance and also the steering force depending on the orientation angle, eliminating the need of rudders. The mathematical model has been validated with the results of RSPV’s full scale manoeuvring tests, through a comparison of paths, time series of state variables and other parameters taken from turning tests, such as turning diameter, tactical diameter, advance and transfer. The test plan was developed applying techniques of Design of Experiments “DOE”, in order to rationalize the number of runs in different conditions of water depth, ship speed and jet stream orientation (rudder angle). A data acquisition and processing system was developed, following the guidelines of ITTC, as part of this research effort, in order to minimize errors by environmental effects and inaccuracy in measurement instruments, The negative effects of depth on manoeuvrability parameters for conventional ships (Effect Type S: the path described by the ship during turning test increase with decrease of water depth), has been documented in the open literature; however for wide-beam ships, B/T=7,51 (Yoshimura, y otros, 1.988) and B/T=6,38 (Yasukawa, y otros, 1.995) has been reported the opposite effect (Type NS). The latter effect has been observed thru model testing but until now had not been validated with full-scale results. In ships with propellers and rudders, type NS effect is due to the fact that increment of rudder force becomes larger than hull force with decrease of water depth; in the study case, the phenomenon is associated with better efficiency of the Pump-Jet once the vessel speed becomes lower, due to hull added resistance by the effect of the decrease of water depth. The results of full scale tests validates the excellent performance of this class of ships, fulfilling the manoeuvrability criteria in excess and showing that turning diameter and other parameters in high beam-draft ratio vessels do improve with the decrease of depth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Diccionario Biográfico de Matemáticos incluye más de 2040 reseñas de matemáticos, entre las que hay unas 280 de españoles y 36 de mujeres (Agnesi, Blum, Byron, Friedman, Hipatia, Robinson, Scott, etc.), de las que 11 son españolas (Casamayor, Sánchez Naranjo, Sanz-Solé, etc.). Se ha obtenido la mayor parte de las informaciones por medio de los libros recogidos en el apéndice “Bibliografía consultada”; otra parte, de determinadas obras matemáticas de los autores reseñados (estas obras no están incluidas en el citado apéndice, lo están en las correspondientes reseñas de sus autores). Las obras más consultadas han sido las de Boyer, Cajori, Kline, Martinón, Peralta, Rey Pastor y Babini, Wieleitner, las Enciclopedias Espasa, Británica, Larousse, Universalis y Wikipedia. Entre las reseñas incluidas, destacan las siguientes, en orden alfabético: Al-Khuwairizmi, Apolonio, Arquímedes, Jacob y Johann Bernoulli, Brouwer, Cantor, Cauchy, Cayley, Descartes, Diofanto, Euclides, Euler, Fermat, Fourier, Galileo, Gauss, Hilbert, Lagrange, Laplace, Leibniz, Monge, Newton, Pappus, Pascal, Pitágoras, Poincaré, Ptolomeo, Riemann, Weierstrass, etc. Entre los matemáticos españoles destacan las de Echegaray, Etayo, Puig Adam, Rey Pastor, Reyes Prósper, Terradas (de quien Einstein dijo: “Es uno de los seis primeros cerebros mundiales de su tiempo y uno de los pocos que pueden comprender hoy en día la teoría de la relatividad”), Torre Argaiz, Torres Quevedo, los Torroja, Tosca, etc. Se han incluido varias referencias de matemáticos nacidos en la segunda mitad del siglo XX. Entre ellos descuellan nombres como Perelmán o Wiles. Pero para la mayor parte de ellos sería conveniente un mayor distanciamiento en el tiempo para poder dar una opinión más objetiva sobre su obra. Las reseñas no son exhaustivas. Si a algún lector le interesa profundizar en la obra de un determinado matemático, puede utilizar con provecho la bibliografía incluida, o también las obras recogidas en su reseña. En cada reseña se ha seguido la secuencia: nombre, fechas de nacimiento y muerte, profesión, nacionalidad, breve bosquejo de su vida y exposición de su obra. En algunos casos, pocos, no se ha podido encontrar el nombre completo. Cuando sólo existe el año de nacimiento, se indica con la abreviatura “n.”, y si sólo se conoce el año de la muerte, con la abreviatura “m.”. Si las fechas de nacimiento y muerte son sólo aproximadas, se utiliza la abreviatura “h.” –hacia–, abreviatura que también se utiliza cuando sólo se conoce que vivió en una determinada época. Esta utilización es, entonces, similar a la abreviatura clásica “fl.” –floreció–. En algunos casos no se ha podido incluir el lugar de nacimiento del personaje o su nacionalidad. No todos los personajes son matemáticos en sentido estricto, aunque todos ellos han realizado importantes trabajos de índole matemática. Los hay astrónomos como, por ejemplo, Brahe, Copérnico, Laplace; físicos como Dirac, Einstein, Palacios; ingenieros como La Cierva, Shannon, Stoker, Torres Quevedo (muchos matemáticos, considerados primordialmente como tales, se formaron como ingenieros, como Abel Transon, Bombelli, Cauchy, Poincaré); geólogos, cristalógrafos y mineralogistas como Barlow, Buerger, Fedorov; médicos y fisiólogos como Budan, Cardano, Helmholtz, Recorde; naturalistas y biólogos como Bertalanfly, Buffon, Candolle; anatomistas y biomecánicos como Dempster, Seluyanov; economistas como Black, Scholes; estadísticos como Akaike, Fisher; meteorólogos y climatólogos como Budyko, Richardson; filósofos como Platón, Aristóteles, Kant; religiosos y teólogos como Berkeley, Santo Tomás; historiadores como Cajori, Eneström; lingüistas como Chomsky, Grassmann; psicólogos y pedagogos como Brousseau, Fishbeim, Piaget; lógicos como Boole, Robinson; abogados y juristas como Averroes, Fantet, Schweikart; escritores como Aristófanes, Torres de Villarroel, Voltaire; arquitectos como Le Corbusier, Moneo, Utzon; pintores como Durero, Escher, Leonardo da Vinci (pintor, arquitecto, científico, ingeniero, escritor, lingüista, botánico, zoólogo, anatomista, geólogo, músico, escultor, inventor, ¿qué es lo que 6 no fue?); compositores y musicólogos como Gugler, Rameau; políticos como Alfonso X, los Banu Musa, los Médicis; militares y marinos como Alcalá Galiano, Carnot, Ibáñez, Jonquières, Poncelet, Ulloa; autodidactos como Fermat, Simpson; con oficios diversos como Alcega (sastre), Argand (contable), Bosse (grabador), Bürgi (relojero), Dase (calculista), Jamnitzer (orfebre), Richter (instrumentista), etc. También hay personajes de ficción como Sancho Panza (siendo gobernador de la ínsula Barataria, se le planteó a Sancho una paradoja que podría haber sido formulada por Lewis Carroll; para resolverla, Sancho aplicó su sentido de la bondad) y Timeo (Timeo de Locri, interlocutor principal de Platón en el diálogo Timeo). Se ha incluido en un apéndice una extensa “Tabla Cronológica”, donde en columnas contiguas están todos los matemáticos del Diccionario, las principales obras matemáticas (lo que puede representar un esbozo de la historia de la evolución da las matemáticas) y los principales acontecimientos históricos que sirven para situar la época en que aquéllos vivieron y éstas se publicaron. Cada matemático se sitúa en el año de su nacimiento, exacto o aproximado; si no se dispone de este dato, en el año de su muerte, exacto o aproximado; si no se dispone de ninguna de estas fechas, en el año aproximado de su florecimiento. Si sólo se dispone de un periodo de tiempo más o menos concreto, el personaje se clasifica en el año más representativo de dicho periodo: por ejemplo, en el año 250 si se sabe que vivió en el siglo III, o en el año -300 si se sabe que vivió hacia los siglos III y IV a.C. En el apéndice “Algunos de los problemas y conjeturas expuestos en el cuerpo del Diccionario”, se ha resumido la situación actual de algunos de dichos problemas y conjeturas. También se han incluido los problemas que Hilbert planteó en 1900, los expuestos por Smale en 1997, y los llamados “problemas del milenio” (2000). No se estudian con detalle, sólo se indica someramente de qué tratan. Esta segunda edición del Diccionario Biográfico de Matemáticos tiene por objeto su puesta a disposición de la Escuela de Ingenieros de Minas de la Universidad Politécnica de Madrid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las organizaciones son sistemas o unidades sociales, compuestas por personas que interactúan entre sí, para lograr objetivos comunes. Uno de sus objetivos es la productividad. La productividad es un constructo multidimensional en la que influyen aspectos tecnológicos, económicos, organizacionales y humanos. Diversos estudios apoyan la influencia de la motivación de las personas, de las habilidades y destrezas de los individuos, de su talento para desempeñar el trabajo, así como también del ambiente de trabajo presente en la organización, en la productividad. Por esta razón, el objetivo general de la investigación, es analizar la influencia entre los factores humanos y la productividad. Se hará énfasis en la persona como factor productivo clave, para responder a las interrogantes de la investigación, referidas a cuáles son las variables humanas que inciden en la productividad, a la posibilidad de plantear un modelo de productividad que considere el impacto del factor humano y la posibilidad de encontrar un método para la medición de la productividad que contemple la percepción del factor humano. Para resolver estas interrogantes, en esta investigación se busca establecer las relaciones entre las variables humanas y la productividad, vistas desde la perspectiva de tres unidades de análisis diferentes: individuo, grupo y organización, para la formulación de un modelo de productividad humana y el diseño de un instrumento para su medida. Una de las principales fuente de investigación para la elección de las variables humanas, la formulación del modelo, y el método de medición de la productividad, fue la revisión de la literatura disponible sobre la productividad y el factor humano en las organizaciones, lo que facilitó el trazado del marco teórico y conceptual. Otra de las fuentes para la selección fue la opinión de expertos y de especialistas directamente involucrados en el sector eléctrico venezolano, lo cual facilitó la obtención de un modelo, cuyas variables reflejasen la realidad del ámbito en estudio. Para aportar una interpretación explicativa del fenómeno, se planteó el modelo de los Factores Humanos vs Productividad (MFHP), el cual se analizó desde la perspectiva del análisis causal y fue conformado por tres variables latentes exógenas denominadas: factores individuales, factores grupales y factores organizacionales, que estaban relacionadas con una variable latente endógena denominada productividad. El MFHP se formuló mediante la metodología de los modelos de ecuaciones estructurales (SEM). Las relaciones inicialmente propuestas entre las variables latentes fueron corroboradas por los ajustes globales del modelo, se constataron las relaciones entre las variables latentes planteadas y sus indicadores asociados, lo que facilitó el enunciado de 26 hipótesis, de las cuales se comprobaron 24. El modelo fue validado mediante la estrategia de modelos rivales, utilizada para comparar varios modelos SEM, y seleccionar el de mejor ajuste, con sustento teórico. La aceptación del modelo se realizó mediante la evaluación conjunta de los índices de bondad de ajuste globales. Asimismo, para la elaboración del instrumento de medida de la productividad (IMPH), se realizó un análisis factorial exploratorio previo a la aplicación del análisis factorial confirmatorio, aplicando SEM. La revisión de los conceptos de productividad, la incidencia del factor humano, y sus métodos de medición, condujeron al planteamiento de métodos subjetivos que incorporaron la percepción de los principales actores del proceso productivo, tanto para la selección de las variables, como para la formulación de un modelo de productividad y el diseño de un instrumento de medición de la productividad. La contribución metodológica de este trabajo de investigación, ha sido el empleo de los SEM para relacionar variables que tienen que ver con el comportamiento humano en la organización y la productividad, lo cual abre nuevas posibilidades a la investigación en este ámbito. Organizations are social systems or units composed of people who interact with each other to achieve common goals. One objective is productivity, which is a multidimensional construct influenced by technological, economic, organizational and human aspects. Several studies support the influence on productivity of personal motivation, of the skills and abilities of individuals, of their talent for the job, as well as of the work environment present in the organization. Therefore, the overall objective of this research is to analyze the influence between human factors and productivity. The emphasis is on the individual as a productive factor which is key in order to answer the research questions concerning the human variables that affect productivity and to address the ability to propose a productivity model that considers the impact of the human factor and the possibility of finding a method for the measurement of productivity that includes the perception of the human factor. To consider these questions, this research seeks to establish the relationships between human and productivity variables, as seen from the perspective of three different units of analysis: the individual, the group and the organization, in order to formulate a model of human productivity and to design an instrument for its measurement. A major source of research for choosing the human variables, model formulation, and method of measuring productivity, was the review of the available literature on productivity and the human factor in organizations which facilitated the design of the theoretical and conceptual framework. Another source for the selection was the opinion of experts and specialists directly involved in the Venezuelan electricity sector which facilitated obtaining a model whose variables reflect the reality of the area under study. To provide an interpretation explaining the phenomenon, the model of the Human Factors vs. Productivity Model (HFPM) was proposed. This model has been analyzed from the perspective of causal analysis and was composed of three latent exogenous variables denominated: individual, group and organizational factors which are related to a latent variable denominated endogenous productivity. The HFPM was formulated using the methodology of Structural Equation Modeling (SEM). The initially proposed relationships between latent variables were confirmed by the global fits of the model, the relationships between the latent variables and their associated indicators enable the statement of 26 hypotheses, of which 24 were confirmed. The model was validated using the strategy of rival models, used for comparing various SEM models and to select the one that provides the best fit, with theoretical support. The acceptance of the model was performed through the joint evaluation of the adequacy of global fit indices. Additionally, for the development of an instrument to measure productivity, an exploratory factor analysis was performed prior to the application of a confirmatory factor analysis, using SEM. The review of the concepts of productivity, the impact of the human factor, and the measurement methods led to a subjective methods approach that incorporated the perception of the main actors of the production process, both for the selection of variables and for the formulation of a productivity model and the design of an instrument to measure productivity. The methodological contribution of this research has been the use of SEM to relate variables that have to do with human behavior in the organization and with productivity, opening new possibilities for research in this area.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los arrays de ranuras son sistemas de antennas conocidos desde los años 40, principalmente destinados a formar parte de sistemas rádar de navíos de combate y grandes estaciones terrenas donde el tamaño y el peso no eran altamente restrictivos. Con el paso de los años y debido sobre todo a importantes avances en materiales y métodos de fabricación, el rango de aplicaciones de este tipo de sistemas radiantes creció en gran medida. Desde nuevas tecnologías biomédicas, sistemas anticolisión en automóviles y navegación en aviones, enlaces de comunicaciones de alta tasa binaria y corta distancia e incluso sistemas embarcados en satélites para la transmisión de señal de televisión. Dentro de esta familia de antennas, existen dos grupos que destacan por ser los más utilizados: las antennas de placas paralelas con las ranuras distribuidas de forma circular o espiral y las agrupaciones de arrays lineales construidos sobre guia de onda. Continuando con las tareas de investigación desarrolladas durante los últimos años en el Instituto de Tecnología de Tokyo y en el Grupo de Radiación de la Universidad Politécnica de Madrid, la totalidad de esta tesis se centra en este último grupo, aunque como se verá se separa en gran medida de las técnicas de diseño y metodologías convencionales. Los arrays de ranuras rectas y paralelas al eje de la guía rectangular que las alimenta son, sin ninguna duda, los modelos más empleados debido a la fiabilidad que presentan a altas frecuencias, su capacidad para gestionar grandes cantidades de potencia y la sencillez de su diseño y fabricación. Sin embargo, también presentan desventajas como estrecho ancho de banda en pérdidas de retorno y rápida degradación del diagrama de radiación con la frecuencia. Éstas son debidas a la naturaleza resonante de sus elementos radiantes: al perder la resonancia, el sistema global se desajusta y sus prestaciones degeneran. En arrays bidimensionales de slots rectos, el campo eléctrico queda polarizado sobre el plano transversal a las ranuras, correspondiéndose con el plano de altos lóbulos secundarios. Esta tesis tiene como objetivo el desarrollo de un método sistemático de diseño de arrays de ranuras inclinadas y desplazadas del centro (en lo sucesivo “ranuras compuestas”), definido en 1971 como uno de los desafíos a superar dentro del mundo del diseño de antennas. La técnica empleada se basa en el Método de los Momentos, la Teoría de Circuitos y la Teoría de Conexión Aleatoria de Matrices de Dispersión. Al tratarse de un método circuital, la primera parte de la tesis se corresponde con el estudio de la aplicabilidad de las redes equivalentes fundamentales, su capacidad para recrear fenómenos físicos de la ranura, las limitaciones y ventajas que presentan para caracterizar las diferentes configuraciones de slot compuesto. Se profundiza en las diferencias entre las redes en T y en ! y se condiciona la selección de una u otra dependiendo del tipo de elemento radiante. Una vez seleccionado el tipo de red a emplear en el diseño del sistema, se ha desarrollado un algoritmo de cascadeo progresivo desde el puerto alimentador hacia el cortocircuito que termina el modelo. Este algoritmo es independiente del número de elementos, la frecuencia central de funcionamiento, del ángulo de inclinación de las ranuras y de la red equivalente seleccionada (en T o en !). Se basa en definir el diseño del array como un Problema de Satisfacción de Condiciones (en inglés, Constraint Satisfaction Problem) que se resuelve por un método de Búsqueda en Retroceso (Backtracking algorithm). Como resultado devuelve un circuito equivalente del array completo adaptado a su entrada y cuyos elementos consumen una potencia acorde a una distribución de amplitud dada para el array. En toda agrupación de antennas, el acoplo mutuo entre elementos a través del campo radiado representa uno de los principales problemas para el ingeniero y sus efectos perjudican a las prestaciones globales del sistema, tanto en adaptación como en capacidad de radiación. El empleo de circuito equivalente se descartó por la dificultad que suponía la caracterización de estos efectos y su inclusión en la etapa de diseño. En esta tesis doctoral el acoplo también se ha modelado como una red equivalente cuyos elementos son transformadores ideales y admitancias, conectada al conjunto de redes equivalentes que representa el array. Al comparar los resultados estimados en términos de pérdidas de retorno y radiación con aquellos obtenidos a partir de programas comerciales populares como CST Microwave Studio se confirma la validez del método aquí propuesto, el primer método de diseño sistemático de arrays de ranuras compuestos alimentados por guía de onda rectangular. Al tratarse de ranuras no resonantes, el ancho de banda en pérdidas de retorno es mucho mas amplio que el que presentan arrays de slots rectos. Para arrays bidimensionales, el ángulo de inclinación puede ajustarse de manera que el campo quede polarizado en los planos de bajos lóbulos secundarios. Además de simulaciones se han diseñado, construido y medido dos prototipos centrados en la frecuencia de 12GHz, de seis y diez elementos. Las medidas de pérdidas de retorno y diagrama de radiación revelan excelentes resultados, certificando la bondad del método genuino Method of Moments - Forward Matching Procedure desarrollado a lo largo de esta tésis. Abstract The slot antenna arrays are well known systems from the decade of 40s, mainly intended to be part of radar systems of large warships and terrestrial stations where size and weight were not highly restrictive. Over the years, mainly due to significant advances in materials and manufacturing methods, the range of applications of this type of radiating systems grew significantly. From new biomedical technologies, collision avoidance systems in cars and aircraft navigation, short communication links with high bit transfer rate and even embedded systems in satellites for television broadcast. Within this family of antennas, two groups stand out as being the most frequent in the literature: parallel plate antennas with slots placed in a circular or spiral distribution and clusters of waveguide linear arrays. To continue the vast research work carried out during the last decades in the Tokyo Institute of Technology and in the Radiation Group at the Universidad Politécnica de Madrid, this thesis focuses on the latter group, although it represents a technique that drastically breaks with traditional design methodologies. The arrays of slots straight and parallel to the axis of the feeding rectangular waveguide are without a doubt the most used models because of the reliability that they present at high frequencies, its ability to handle large amounts of power and their simplicity of design and manufacturing. However, there also exist disadvantages as narrow bandwidth in return loss and rapid degradation of the radiation pattern with frequency. These are due to the resonant nature of radiating elements: away from the resonance status, the overall system performance and radiation pattern diminish. For two-dimensional arrays of straight slots, the electric field is polarized transverse to the radiators, corresponding to the plane of high side-lobe level. This thesis aims to develop a systematic method of designing arrays of angled and displaced slots (hereinafter "compound slots"), defined in 1971 as one of the challenges to overcome in the world of antenna design. The used technique is based on the Method of Moments, Circuit Theory and the Theory of Scattering Matrices Connection. Being a circuitry-based method, the first part of this dissertation corresponds to the study of the applicability of the basic equivalent networks, their ability to recreate the slot physical phenomena, their limitations and advantages presented to characterize different compound slot configurations. It delves into the differences of T and ! and determines the selection of the most suitable one depending on the type of radiating element. Once the type of network to be used in the system design is selected, a progressive algorithm called Forward Matching Procedure has been developed to connect the proper equivalent networks from the feeder port to shorted ending. This algorithm is independent of the number of elements, the central operating frequency, the angle of inclination of the slots and selected equivalent network (T or ! networks). It is based on the definition of the array design as a Constraint Satisfaction Problem, solved by means of a Backtracking Algorithm. As a result, the method returns an equivalent circuit of the whole array which is matched at its input port and whose elements consume a power according to a given amplitude distribution for the array. In any group of antennas, the mutual coupling between elements through the radiated field represents one of the biggest problems that the engineer faces and its effects are detrimental to the overall performance of the system, both in radiation capabilities and return loss. The employment of an equivalent circuit for the array design was discarded by some authors because of the difficulty involved in the characterization of the coupling effects and their inclusion in the design stage. In this thesis the coupling has also been modeled as an equivalent network whose elements are ideal transformers and admittances connected to the set of equivalent networks that represent the antennas of the array. By comparing the estimated results in terms of return loss and radiation with those obtained from popular commercial software as CST Microwave Studio, the validity of the proposed method is fully confirmed, representing the first method of systematic design of compound-slot arrays fed by rectangular waveguide. Since these slots do not work under the resonant status, the bandwidth in return loss is much wider than the longitudinal-slot arrays. For the case of two-dimensional arrays, the angle of inclination can be adjusted so that the field is polarized at the low side-lobe level plane. Besides the performed full-wave simulations two prototypes of six and ten elements for the X-band have been designed, built and measured, revealing excellent results and agreement with the expected results. These facts certify that the genuine technique Method of Moments - Matching Forward Procedure developed along this thesis is valid and trustable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Después de analizar la situación energética actual y las distintas formas de almacenar la energía, sobre todo la proveniente de energías renovables, añadido a las preocupaciones sobre el cambio climático global, la degradación medioambiental resultante del uso de los combustibles fósiles como fuente primaria de energía, junto con las inquietudes sobre la seguridad en el suministro energético, han llevado a muchos analistas a proponer al hidrógeno como portador universal de energía para el futuro. El uso del hidrógeno como vector energético permite el desarrollo de un amplio número de tecnologías. En concreto, las pilas de combustible alimentadas con hidrógeno pueden alcanzar eficiencias elevadas y presentan una gran variedad de posibles aplicaciones, tanto móviles como estacionarias. En el caso de que las líneas de desarrollo actuales lleguen a buen término, el hidrógeno y las pilas de combustible podrán contribuir de forma sustancial a alcanzar los objetivos clave de las políticas energéticas (seguridad de suministro, reducción de emisiones de CO2), especialmente en el sector transporte. Los resultados alcanzados en los últimos años en los programas de investigación, desarrollo y demostración han incrementado claramente el interés internacional sobre estas tecnologías, de las que se piensa que tienen el potencial de crear un cambio de paradigma energético, tanto en las aplicaciones de transporte como en las de generación distribuida de potencia. A largo plazo, la incorporación del hidrógeno como nuevo vector energético, ofrece un escenario en el que se podrá producir hidrógeno a partir de agua, con electricidad y calor de origen renovable, y será posible su utilización para atender a todo tipo de demandas, tanto las convencionales de la industria, en las que el hidrógeno juega un papel de reactivo en procesos diversos, como las energéticas en las que jugaría su nuevo papel de portador de energía. Las únicas emisiones que llevaría asociada la utilización del hidrógeno renovable serían óxidos de nitrógeno que se producirían en procesos de combustión. Sin embargo, su uso en pilas de combustible llevaría a emisiones nulas. Si la fuente del hidrógeno es el gas natural o el carbón, entonces será esencial la captura y almacenamiento del CO2 para lograr ahorros en emisiones, pero, en cualquier caso, los vehículos propulsados por pilas de combustible alimentadas con hidrógeno siempre reducirán las emisiones locales, dado que en el uso final el único efluente es vapor de agua. La visión de este sistema económico-energético del H2, se basa en la expectativa de que el hidrógeno pueda producirse a partir de recursos domésticos, de forma económica y medioambientalmente aceptable y en que las tecnologías de uso final del hidrógeno (pilas de combustible) ganen una cuota de mercado significativa. Los que en el mundo abogan por el hidrógeno indican que, si se alcanzan estas expectativas, una «economía del hidrógeno» beneficiará al mundo proporcionando una mayor seguridad energética porque se diversificarán las fuentes de energía, y una mayor calidad medioambiental porque se reducirán significativamente las emisiones locales y globales

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo se propone identificar las barreras que hasta ahora han impedido adoptar medidas para impulsar cambios radicales en la movilidad interurbana en España, que pudieran tener un impacto apreciable en términos de reducción de las emisiones de gases de efecto invernadero (GEI). Para ello, se ha definido un objetivo ambicioso en las emisiones de gases de efecto invernadero en este sector de movilidad. De un 64% para el horizonte 2030, respecto de los niveles de 2005, coherente con las necesidades de reducción de las emisiones a largo plazo, más ambiciosa que las planteadas actualmente en la Unión Europea, de acuerdo con el marco estratégico europeo definido por los documentos "Europa 2020" y el reciente "libro blanco del transporte”. Por simplificación metodológica, esta reducción se aplica en el estudio exclusivamente a las emisiones de viajes interurbanos realizados en coche. Posteriormente, el estudio explora dos escenarios extremos para 2030. En ambos casos se alcanza la reducción sustancial de emisiones pretendida, pero con pautas de movilidad muy diferentes. En el primer escenario, que se denomina "economía global avanzada", el desarrollo tecnológico aporta la mayor parte de las reducciones, con el resultado de una demanda de movilidad regulada fundamentalmente por el precio de esta; en el segundo caso, denominado "sociedad inteligente", la reducción de emisiones se asocia principalmente a la generalización de sistemas de movilidad con menores emisiones y la disuasión de pautas de movilidad con alto nivel de emisión. El estudio finaliza analizando las barreras principales que impiden que una estrategia de este tipo se haya puesto en marcha en España, y valora las posibilidades de superarlas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de esta Tesis es desarrollar una metodología que permita proporcionar nuevos usos de Desarrollo Sostenible en las vías pecuarias, basados en parámetros naturales y el marco legal existente. En el Capítulo primero titulado LEGISLACIÓN. MARCO EUROPEO, NACIONAL Y AUTÓMICO DE VÍAS PECUARIAS Y DESARROLLO SOSTENIBLE, se ha estudiado el estado actual de las políticas de nuestra comunidad autónoma, nacional y europeas, sobre vías pecuarias. Centrándonos en materias medioambientales, agrarias y de patrimonio cultural. Empezando por la política medioambiental sobre medio natural: cabe destacar la Directiva Hábitats(92/43 CEE) que se desarrolló para empezar a proteger a 220 hábitats y aproximadamente 1000 especies listadas en las directivas Anexas (Anexo I cubre hábitats, Anexos II, IV & V especies) y la Directiva Aves (más formalmente conocida como la Directiva 2009/147/CE del Parlamento Europeo y del Consejo de 30 de noviembre de 2009 relativa a la conservación de las aves silvestres) de la Unión Europea adoptada en el año 2009. Esta última reemplaza a la Directiva 79/409/CEE del Consejo, de 2 de abril de 1979, relativa a la conservación de las aves silvestres, modificada en varias ocasiones y de forma sustancial, por lo que, en aras de la claridad, se consideró conveniente proceder a la codificación de dicha Directiva en el año 20091. En cuanto a la política medioambiental sobre Paisaje hay que destacar el Convenio Europeo del Paisaje auspiciado por el Consejo de Europa, (Florencia, octubre de 2000), y ratificado por España, entrando en vigor el 1 de marzo de 2008, que pretende cambiar la forma de abordar el paisaje para otorgarle el protagonismo de eje estructural del territorio, huella del patrimonio natural y cultural de un país, sobre el que se desarrollan las actividades económicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis doctoral que se presenta realiza un análisis de la evolución del paisaje fluvial de las riberas de los ríos Tajo y Jarama en el entorno de Aranjuez desde una perspectiva múltiple. Contempla y conjuga aspectos naturales, tales como los hidrológicos, geomorfológicos y ecológicos; también culturales, como la regulación hidrológica y la gestión del agua, las intervenciones en cauce y márgenes, la evolución de la propiedad y los cambios de usos del suelo, fundamentalmente. Este análisis ha permitido identificar el sistema de factores, dinámico y complejo, que ha creado este paisaje, así como las interrelaciones, conexiones, condicionantes y dependencias de los descriptores paisajísticos considerados. Por ejemplo, se han estudiado las relaciones cruzadas observadas entre dinámica fluvial-propiedad de la tierra-estado de conservación, cuestiones que hasta la fecha no habían sido tratadas, evaluadas o cuantificadas en otros trabajos dedicados a esta zona. La investigación se ha organizado en tres fases fundamentales que han dado lugar a los capítulos centrales del documento (capítulos 2, 3 y 4). En primer lugar, se ha realizado una caracterización de los factores, naturales y culturales, que organizan el paisaje de este territorio eminentemente fluvial (geomorfología, factores climáticos e hidrológicos, vegetación, propiedad de la tierra y elementos culturales de significación paisajística). A continuación, se ha realizado el estudio de la evolución del paisaje fluvial mediante el análisis de diversos elementos, previamente identificados y caracterizados. Para ello se han procesado imágenes aéreas correspondientes a cinco series temporales así como varios planos antiguos, obteniendo una amplia base de datos que se ha analizado estadísticamente. Finalmente, se han contrastado los resultados parciales obtenidos en los capítulos anteriores, lo que ha permitido identificar relaciones causales entre los factores que organizan el paisaje y la evolución de los elementos que lo constituyen. También, interconexiones entre factores o entre elementos. Este método de trabajo ha resultado muy útil para la comprensión del funcionamiento y evolución de un sistema complejo, como el paisaje de la vega de Aranjuez, un territorio con profundas y antiguas intervenciones culturales donde lo natural, en cualquier caso, siempre subyace. Es posible que la principal aportación de este trabajo, también su diferencia más destacada respecto a otros estudios de paisaje, haya sido mostrar una visión completa y exhaustiva de todos los factores que han intervenido en la conformación y evolución del paisaje fluvial, destacando las relaciones que se establecen entre ellos. Esta manera de proceder puede tener una interesante faceta aplicada, de tal manera que resulta un instrumento muy útil para el diseño de planes de gestión de este territorio fluvial. No en vano, una parte sustancial de la vega del Tajo-Jarama en Aranjuez es un Lugar de Importancia Comunitaria (LIC) y su posterior e ineludible declaración como Zona de Especial Conservación (ZEC) de la Red Natura 2000, de acuerdo con lo establecido en la Directiva 92/43/CE, exige la elaboración de un Plan de Gestión que, en gran medida, podría nutrirse de lo presentado, analizado e interpretado en este trabajo. En este sentido, conviene señalar la conciencia ya asumida de considerar, por su carácter integrador de la realidad territorial, el paisaje como elemento clave para la gestión adecuada de la naturaleza y el territorio. Por otra parte, se considera que los resultados de esta Tesis Doctoral permitirían plantear medidas para la puesta en valor de un paisaje sobresaliente, cuyos límites sobrepasan con creces los que en la actualidad conforman el Paisaje Cultural declarado por la UNESCO. En suma, el análisis de este espacio fluvial realizado con la profundidad y amplitud que permite el método de trabajo seguido puede utilizarse para el diseño de estrategias que dirijan la evolución de este territorio en una línea que garantice su conservación global en términos paisajísticos, patrimoniales y ecológicos, permitiendo además, de este modo, su uso equilibrado como recurso económico, cultural o educativo. This doctoral thesis shows an analysis of fluvial landscape evolution from multiple perspectives on the banks of Tagus and Jarama rivers, around Aranjuez. The thesis contemplates and combines natural features, such as hydrological, geomorphological and ecological features, as well as cultural features, like hydrological regulation and water management, interventions in channels and margins, changes in ownership and land use changes, mainly. This analysis has allowed to identify the factors system, dynamic and complex, that this landscape has created, as well as the interrelationships, connections, constraints and dependencies among considered landscape descriptors. For example, we have studied the relationships observed among fluvial dynamics- land ownership -conservation status, issues not addressed, assessed or quantified up to now in other works about this area. The research is organized into three major phases that led to the paper's central chapters (Chapters 2, 3 and 4). First, there has been a characterization of the factors, both natural and cultural, that organize the landscape of this predominantly fluvial area (geomorphology, climate and hydrological factors, vegetation, land and cultural elements of landscape significance). Then, it was made to study of fluvial landscape evolution by analyzing various elements previously identified and characterized. Aerial images were processed for five series and several old maps, obtaining an extensive database, that has been analyzed statistically. Finally, we have contrasted the partial results obtained in the previous chapters, making it possible to identify causal relationships between the factors that organize the landscape and the evolution of the elements that constitute it. This working method has been very useful for understanding the operation and evolution of a complex system, as the landscape of the Vega de Aranjuez, a territory with deep and ancient cultural interventions where anyway, nature feature always lies. It is possible that the main contribution of this work, also its most prominent difference compared with other studies of landscape, has been to show a complete and exhaustive view of all factors involved in the formation and evolution of the fluvial landscape, highlighting the relationships established among them. This approach could have an interesting applied facet, so that is a very useful tool for designing management plans on this river territory. Not surprisingly, a substantial part of the valley of the Tagus-Jarama in Aranjuez is a Site of Community Importance (SCI) and their subsequent and inevitable declaration as Special Area of Conservation (SAC) of the Natura 2000 network, in accordance with the provisions Directive 92/43/EC, requires the development of a management plan that largely could draw on what was presented, analyzed and interpreted in this paper. In this regard, it should be noted conscience and assumed to consider, on the inclusiveness of territorial reality, the landscape as a key element for the proper management of nature and territory. On the other hand, it is considered that the results of this thesis allow to propose measures for enhancement of outstanding scenery, which go well beyond the boundaries that currently the Cultural Landscape declared by UNESCO. In sum, the analysis of this river area made with the depth and breadth that enables working method can be used to design strategies that address the evolution of this territory in a line that guarantees global conservation landscape terms, heritage and ecological, also, allowing its use as a balancing economic, cultural or educational resource.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta investigación es desarrollar una metodología para estimar los potenciales impactos económicos y de transporte generados por la aplicación de políticas en el sector transporte. Los departamentos de transporte y otras instituciones gubernamentales relacionadas se encuentran interesadas en estos análisis debido a que son presentados comúnmente de forma errónea por la insuficiencia de datos o por la falta de metodologías adecuadas. La presente investigación tiene por objeto llenar este vacío haciendo un análisis exhaustivo de las técnicas disponibles que coincidan con ese propósito. Se ha realizado un análisis que ha identificado las diferencias cuando son aplicados para la valoración de los beneficios para el usuario o para otros efectos como aspectos sociales. Como resultado de ello, esta investigación ofrece un enfoque integrado que incluye un modelo Input-Output de múltiples regiones basado en la utilidad aleatoria (RUBMRIO), y un modelo de red de transporte por carretera. Este modelo permite la reproducción con mayor detalle y realismo del transporte de mercancías que por medio de su estructura sectorial identifica los vínculos de las compras y ventas inter-industriales dentro de un país utilizando los servicios del transporte de mercancías. Por esta razón, el modelo integrado es aplicable a diversas políticas de transporte. En efecto, el enfoque se ha aplicado para estudiar los efectos macroeconómicos regionales de la implementación de dos políticas diferentes en el sistema de transporte de mercancías de España, tales como la tarificación basada en la distancia recorrida por vehículo-kilómetro (€/km) aplicada a los vehículos del transporte de mercancías, y para la introducción de vehículos más largos y pesados de mercancías en la red de carreteras de España. El enfoque metodológico se ha evaluado caso por caso teniendo en cuenta una selección de la red de carreteras que unen las capitales de las regiones españolas. También se ha tenido en cuenta una dimensión económica a través de una tabla Input-Output de múltiples regiones (MRIO) y la base de datos de conteo de tráfico existente para realizar la validación del modelo. El enfoque integrado reproduce las condiciones de comercio observadas entre las regiones usando el sistema de transporte de mercancías por carretera, y que permite por comparación con los escenarios de políticas, determinar las contribuciones a los cambios distributivos y generativos. Así pues, el análisis estima los impactos económicos en cualquier región considerando los cambios en el Producto Interno Bruto (PIB) y el empleo. El enfoque identifica los cambios en el sistema de transporte a través de todos los caminos de la red de transporte a través de las medidas de efectividad (MOEs). Los resultados presentados en esta investigación proporcionan evidencia sustancial de que en la evaluación de las políticas de transporte, es necesario establecer un vínculo entre la estructura económica de las regiones y de los servicios de transporte. Los análisis muestran que para la mayoría de las regiones del país, los cambios son evidentes para el PIB y el empleo, ya que el comercio se fomenta o se inhibe. El enfoque muestra cómo el tráfico se desvía en ambas políticas, y también determina detalles de las emisiones de contaminantes en los dos escenarios. Además, las políticas de fijación de precios o de regulación de los sistemas de transporte de mercancías por carretera dirigidas a los productores y consumidores en las regiones promoverán transformaciones regionales afectando todo el país, y esto conduce a conclusiones diferentes. Así mismo, este enfoque integrado podría ser útil para evaluar otras políticas y otros países en todo el mundo. The purpose of this research is to develop a methodological approach aimed at assessing the potential economic and transportation impacts of transport policies. Transportation departments and other related government parties are interested in such analysis because it is commonly misrepresented for the insufficiency of data and suitable methodologies available. This research is directed at filling this gap by making a comprehensive analysis of the available techniques that match with that purpose. The differences when they are applied for the valuation of user benefits or for other impacts as social matters have been identified. As a result, this research presents an integrated approach which includes both a random utility-based multiregional Input-Output model (RUBMRIO), and a road transport network model. This model accounts for freight transport with more detail and realism because its commodity-based structure traces the linkages of inter-industry purchases and sales that use freight services within a given country. For this reason, the integrated model is applicable to various transport policies. In fact, the approach is applied to study the regional macroeconomic effects of implementing two different policies in the freight transport system of Spain, such as a distance-based charge in vehicle-kilometer (€/km) for Heavy Goods Vehicles (HGVs), and the introduction of Longer and Heavier Vehicles (LHVs) in the road network of Spain. The methodological approach has been evaluated on a case by case basis considering a selected road network of highways linking the capitals of the Spanish regions. It has also considered an economic dimension through a Multiregional Input Output Table (MRIO) and the existing traffic count database used in the model validation. The integrated approach replicates observed conditions of trade among regions using road freight transport systems that determine contributions to distributional and generative changes by comparison with policy scenarios. Therefore, the model estimates economic impacts in any given area by considering changes in Gross Domestic Product (GDP), employment (jobs), and in the transportation system across all paths of the transport network considering Measures of effectiveness (MOEs). The results presented in this research provide substantive evidence that in the assessment of transport policies it is necessary to establish a link between the economic structure of regions and the transportation services. The analysis shows that for most regions in the country, GDP and employment changes are noticeable when trade is encouraged or discouraged. This approach shows how traffic is diverted in both policies, and also provides details of the pollutant emissions in both scenarios. Furthermore, policies, such as pricing or regulation of road freight transportation systems, directed to producers and consumers in regions will promote different regional transformations across the country, and this lead to different conclusions. In addition, this integrated approach could be useful to assess other policies and countries worldwide.