980 resultados para Reciprocidad generalizada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Responsabilidad Social Corporativa (RSC) sigue constituyendo en la actualidad un área de estudio de elevado interés tanto para la comunidad académica como para los negocios en general. A pesar del gran número de investigaciones realizadas en las pasadas décadas sobre los distintos aspectos que la caracterizan, y la definición generalizada de políticas relacionadas en las compañías más importantes, existen todavía algunos asuntos clave sobre los que se plantean interrogantes fundamentales. La complejidad asociada al constructo RSC y su carácter intrínsecamente dinámico explican en parte esta afirmación. En su aplicación práctica, las dudas sobre la RSC se enfocan hoy en día hacia su implantación con carácter permanente en el día a día de las organizaciones, la relevancia estratégica de las principales iniciativas, o la posibilidad de obtención de beneficios a medio y largo plazo. Se observa de esta forma la traslación de los debates principales hacia las consecuencias más estratégicas de dichas políticas, influenciados por prestigiosos estudios académicos en los que se caracteriza la denominada RSC Estratégica (RSCE), y por las principales organizaciones de certificación de memorias anuales de RSC y sostenibilidad. En este contexto se sitúa el objeto principal de esta investigación, consistente en el diseño de un modelo de implantación de RSCE que permita no sólo identificar los factores más importantes a tener en consideración para su éxito, sino para caracterizar las potenciales formas de creación de valor que pueden surgir de la aplicación del mismo. Se argumenta la elección del tema por considerarse que los asuntos asociados a la RSC no están lo suficientemente explorados desde la visión estratégica más actual, y por constituir la creación de valor el objetivo más crítico dentro de los procesos directivos de planificación estratégica. De esta forma, se utilizan dos metodologías para destacar qué factores son esenciales en la implantación de la RSCE, con qué fines las compañías aplican esas políticas, y qué resultados obtienen como consecuencia: análisis comparativo de casos de estudio y análisis estadístico cuantitativo. Los casos de estudio analizan en profundidad políticas globales de RSCE bajo diferentes puntos de vista, para derivar conclusiones sobre los factores que facilitan u obstaculizan su implantación permanente en las organizaciones. Su desarrollo se estructura en torno a un marco conceptual de referencia obtenido a través de la revisión bibliográfica específica, y se complementa con la información primaria y secundaria de investigación. Por su parte, el análisis cuantitativo se desarrolla mediante tres técnicas exploratorias: estadística descriptiva, regresión múltiple y análisis de componentes principales. Su aplicación combinada va a posibilitar el contraste de aspectos destacados en los análisis de casos, así como la configuración final del modelo de implantación, y la expresión numérica de la creación de valor a través de la RSCE en función de las dimensiones estratégicas consideradas. En consecuencia, los resultados de la tesis se estructuran alrededor de tres preguntas de investigación: ¿cómo se están produciendo y qué caracterización presentan los beneficios que resultan como consecuencia de la implantación de la RSCE en los procesos de planificación estratégica de las compañías?, ¿qué factores esenciales y característicos de la RSCE pueden resultar críticos en los procesos de implantación y futuro desarrollo?, y ¿qué importancia puede tener en el medio y largo plazo el poder de decisión de compra de los consumidores y usuarios finales en la implantación y desarrollo de políticas de RSCE? ABSTRACT Corporate Social Responsibility (CSR) remains a study area of high interest today to both the academic community and businesses in general. Despite the large number of investigations of various aspects of CSR in past decades, and its generalized consideration by the world’s most important companies, there are still some key issues and fundamental questions to resolve. The complexity associated with the CSR construct and its inherently dynamic character, partly explains this statement. In its practical application, doubts about CSR arise today about its permanent implementation in normal business activities, the strategic relevance of related policies, and the possibility of making profits in the medium and long term. It is observed in this way the translation of the main debates towards the more strategic consequences of these policies, influenced by prestigious academic studies that characterize the so-called Strategic CSR (SCSR), and by leading certification agencies of CSR and sustainability reports. In this context, the main purpose of this investigation is to design a model of SCSR for implementation that allows one to not only identify the most important factors to consider for SCSR success, but also to characterize potential forms of value creation that can arise from its application. The selection of this research approach is justified because it is believed that important issues that are associated with CSR have not been sufficiently explored from the aspect of the strategic vision in the current context, and because value creation constitutes the most critical objective within the strategic planning steering processes. Thus, two methods are used to highlight which factors are essential in SCSR implementation processes, the end to which companies apply these policies, and the kind of results that they expect. These methods are: comparative analysis of case studies and quantitative statistical analysis. The case studies discuss in depth SCSR global policies under different perspectives to draw conclusions about the factors that facilitate or hinder permanent implantation in organizations. Their development is structured around a conceptual framework that is obtained by review of specific literature, and is complemented by primary and secondary research information. On the other hand, quantitative analysis is developed by means of three exploratory techniques: descriptive statistics, multiple regression and principal component analysis. Their combined application facilitates a contrast of highlighted aspects in analyzing cases, the final configuration of the implementation model, and the numerical expression of value creation by SCSR as a consequence of the strategic dimensions considered by companies. Finally, the results of the thesis are structured around three research questions: what are the benefits that result from the implementation of SCSR policies in companies’ strategic planning processes?, which essential SCSR factors are potentially critical in the implementation and future development of companies’ processes?, and how decisive in the medium and long term will be the purchase decision power of consumers to the success of SCSR policies?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ante la preocupación generalizada de la sociedad acerca de las carencias de los jóvenes en cuanto a la expresión escrita, el presente artículo tiene como objetivo analizar si esta competencia se desarrolla y se evalúa en la Universidad. La comunidad académica no puede permanecer ajena a este problema, por lo que es importante que incluya dentro de sus planes de estudio la mejora de esta competencia. El desarrollo de la expresión escrita se incluye entre las competencias generales instrumentales para el aprendizaje y la formación. Se considera, por tanto, una competencia necesaria para cualquier tipo de estudio y cualquier perfil profesional. En particular, en los estudios de ADE, la adquisición de la expresión escrita no se circunscribe a ninguna asignatura en concreto, sino que puede desarrollarse en varias de ellas a lo largo de la titulación. No obstante, el Trabajo de Fin de Grado es una de las asignaturas en la que mejor puede enmarcarse la consecución de esta habilidad. Por este motivo, se realiza un análisis sobre el diseño, la organización, el contenido y la evaluación del Trabajo de Fin de Grado en todas las universidades de la Comunidad de Madrid, tanto públicas como privadas, en las que se imparte el Grado en Administración y Dirección de Empresas. El estudio se ha elaborado a partir de la información de los planes de estudio y de las guías docentes de la asignatura, disponibles en las páginas web de las universidades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde la época de los egipcios el análisis simbológico o notacional ha estado muy presente, por ejemplo, para anotar movimientos o danzas. Desde esa época el análisis notacional como ciencia, y los instrumentos que se utilizan para analizar, han recorrido un largo camino, desarrollando herramientas para cuantificar muchos elementos de la lógica interna de la acción de juego. Actualmente el uso de la estadística en el alto rendimiento es cada vez más importante, para ello hemos de valernos del uso de la notación, como fuente de recogida de datos. Resultando de esta última una retroalimentación fiable y objetiva. Según Over, S. y O´Donoghue, P. (2008) el análisis en el tenis existe y puede ofrecer información generalizada y valiosa que permita entrenar más específicamente. Para la mayoría de los entrenadores lo más sencillo es seguir los consejos de otros expertos para que el entrenamiento pueda ser más óptimo que el actual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

España cuenta con un vasto catálogo de patrimonio edificado en obra de fábrica, tanto en el ámbito religioso como en el civil, que recorre un largo camino histórico desde épocas grecorromanas hasta principios del siglo XX. A lo largo de todos estos siglos, la introducción de nuevos materiales como el hormigón o el acero desplazaron el uso del ladrillo y de la piedra en estructuras a situaciones muy puntuales, lo que llevó durante mucho tiempo al olvido de las técnicas propias de estos materiales y a la ausencia de desarrollo de ensayos y estudios sobre ellos. De hecho, no se trata de una situación únicamente española, sino generalizada a nivel internacional. Todo esto, unido a la dificultad de caracterizar convenientemente los materiales componentes y la interfaz, a la gran variedad de patologías que pueden afectar a las fábricas y a la actuación de cargas de largo periodo de retorno, ha provocado que los arquitectos e ingenieros actuales carezcan de herramientas y de un marco normativo adecuados a la hora de aproximarse a este tipo de edificios. La consecuencia directa ha sido la profusión de ejemplos de intervenciones erróneas en los edificios históricos, tanto desde el punto de vista estructural como estético. Se hace, pues, perentorio desarrollar métodos de cálculo y de investigación que proporcionen las herramientas necesarias para ello y devuelvan el interés profesional y académico hacia la obra de fábrica entendida como material estructural. A raíz de lo expuesto anteriormente, el objeto de este trabajo es el de analizar el comportamiento estático de un edificio histórico desde varios puntos de vista: - La caracterización de los materiales. - El comportamiento de los elementos estructurales aislados. - El comportamiento del sistema estructural, tanto en su configuración actual como en su evolución a lo largo de las diversas reformas sufridas. - Las patologías observadas y la adecuación de los cálculos realizados a las mismas. La intención es la de establecer pautas de estudio y herramientas aplicables a otros edificios y situaciones, pero sin propósito de generalización. La metodología utilizada es la del Cálculo Límite o Rígido-plástico, de tipo I, basado en hallar la línea de acción de los empujes en el interior de la fábrica, y que será definido más adelante. Se ha escogido este método porque aúna la economía de medios y la necesidad de pocos datos, fundamentalmente geométricos, con el aporte de información muy valiosa sobre el nivel de cargas y el modo en que responde la estructura. Se renuncia desde el principio a realizar análisis de tipo II y tipo III, por considerar que resultan excesivamente laboriosos en comparación con la información que se busca. Además, de las propias líneas de empuje obtenidas se pueden inferir, que no determinar, tensiones y deformaciones en el edificio, especialmente a través del procedimiento de cálculo utilizado en la asignatura Conservación y Rehabilitación de Estructuras Históricas, de este máster, impartida por el profesor D. Javier León González, por el que se obtiene, no una trayectoria de empujes, sino todas las posibles a través de una serie de valores límites. Para este trabajo se ha elegido la Iglesia Parroquial de Nuestra Señora de la Oliva, de Lebrija, provincia de Sevilla, por varios motivos. De un lado, se trata de un edificio encuadrado en un momento histórico, el de la conquista castellana de los territorios de Al-Ándalus, en el que se construyen numerosos edificios religiosos y civiles con los que comparte muchas de sus características. Por otro lado, y dentro del mismo contexto, sus particularidades lo convierten en un ejemplo claramente diferenciado y catálogo de soluciones constructivas y estructurales. Por último, se trata de una construcción que ha ido evolucionando en el tiempo, aportando lenguajes y técnicas diferentes, pero que conviven en gran armonía, sin que haya perdido su unicidad en ningún momento (salvo por pequeños elementos en mi opinión disonantes) desde el núcleo original de tipo mudéjar alfonsí (s. XIII) hasta la construcción de su torre campanario en el s. XVIII, pasando por ampliaciones y modificaciones en los siglos XIV a XVII. El ámbito de este trabajo se limita al núcleo mudéjar original junto con la ampliación renacentista del salón principal. Se excluyen por tanto la sacristía y dependencias anexas, la torre campanario y los patios, por ser elementos independientes del resto del conjunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ante la preocupación generalizada de la sociedad acerca de las carencias de los jóvenes en cuanto a la expresión escrita, el presente artículo tiene como objetivo analizar si esta competencia se desarrolla y se evalúa en la Universidad. La comunidad académica no puede permanecer ajena a este problema, por lo que es importante que incluya dentro de sus planes de estudio la mejora de esta competencia. El desarrollo de la expresión escrita se incluye entre las competencias generales instrumentales para el aprendizaje y la formación. Se considera, por tanto, una competencia necesaria para cualquier tipo de estudio y cualquier perfil profesional. En particular, en los estudios de ADE, la adquisición de la expresión escrita no se circunscribe a ninguna asignatura en concreto, sino que puede desarrollarse en varias de ellas a lo largo de la titulación. No obstante, el Trabajo de Fin de Grado es una de las asignaturas en la que mejor puede enmarcarse la consecución de esta habilidad. Por este motivo, se realiza un análisis sobre el diseño, la organización, el contenido y la evaluación del Trabajo de Fin de Grado en todas las universidades de la Comunidad de Madrid, tanto públicas como privadas, en las que se imparte el Grado en Administración y Dirección de Empresas. El estudio se ha elaborado a partir de la información de los planes de estudio y de las guías docentes de la asignatura, disponibles en las páginas web de las universidades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rotura de las geoestructuras puede ser causada por cambios en las tensiones efectivas debidos bien por cargas externas (terremotos, por ejemplo), bien por variación de las presiones intersticiales (lluvia), o cambios en la geometría (erosión), así como por una disminución de las propiedades resistentes de los materiales (meteorización, ataque químico, etc). El caso particular de los deslizamientos es interesante, existiendo diversas clasificaciones que tienen en cuenta su forma, velocidad de propagación, etc. Dos de estos casos son los deslizamientos propiamente dichos y los flujos. En el primer caso, la deformación se concentra en zonas de pequeño espesor, que se idealiza como una superficie (superficie de rotura). La cinemática de esta rotura se puede considerar como el movimiento relativo de dos masas cuyas deformaciones no son grandes. Este mecanismo está usualmente asociado a materiales sobreconsolidados que presentan reblandecimiento. Los flujos se producen generalmente en materiales de baja densidad y estructura metaestable, con tendencia a compactar, de forma que se generan presiones intersticiales que aumentan el ángulo de rozamiento movilizado, pudiéndose llegar en algunos casos a la licuefacción. Este mecanismo de rotura se conoce como rotura difusa, y no ha sido tan estudiado como el de localización a pesar de se trata frecuentemente de roturas de tipo catastrófico. De hecho, el suelo pasa de un estado sólido a un estado fluidificado, con una gran movilidad. Es importante para el ingeniero predecir tanto el comportamiento de las geoestructuras bajo las cargas de cálculo como las condiciones en las que se producirá la rotura. De esta manera, en algunos casos, se podrán reforzar las zonas más débiles aumentando así su seguridad. En otros casos, no se podrá realizar este refuerzo (grandes deslizamientos como avalanchas, lahares, etc), pero sí se podrán conocer las consecuencias de la rotura: velocidad de propagación, alcance, espesores, etc. La modelización de estos problemas es compleja, ya que aparecen dificultades en los modelos matemáticos, constitutivos o reológicos y numéricos. Dado que en los geomateriales aparece una interacción fuerte entre el esqueleto sólido y los fluidos intersticiales, esto debe ser tenido en cuenta en los modelos matemáticos. En este trabajo se describirán, pues, el desarrollo y aplicación de técnicas avanzadas de modelización; matemática, constitutiva/reológica y numérica. Se dedicará especial atención a los problemas de transición entre suelos y suelos fluidificados, que hoy en día se estudian en una gran mayoría de los casos con modelos diferentes. Así por ejemplo, se emplean modelos constitutivos para el comportamiento previo a la rotura, y reológicos para los materiales fluidificados. En lo que respecta a los modelos matemáticos, existen formulaciones nuevas en velocidades (o desplazamientos), tensiones, y presiones de aire y agua intersticial, de los que se pueden obtener modelos simplificados integrados en profundidad para deslizamientos rápidos. Respecto de los modelos constitutivos, es interesante la teoría de la Plasticidad Generalizada (modelo básico de Pastor-Zienkiewicz y extensiones a suelos no saturados). Se estudiará la extensión de estos modelos elastoplásticos a la viscoplasticidad (Perzyna y consistente), explorando la posibilidad de emplearlos tanto antes como después de la rotura. Finalmente, en lo que a modelos numéricos se refiere, se describirá la implementación de los modelos matemáticos y constitutivos desarrollados en (i) modelos clásicos de elementos finitos, como el GeHoMadrid desarrollado en los grupo investigador M2i al que pertenece el autor de este trabajo, (ii) Métodos de tipo Taylor Galerkin, y (iii) métodos sin malla como el SPH y el Material Point Model. Estos modelos se aplicarán, principalmente a (i) Licuefacción de estructuras cimentadas en el fondo marino (ii) presas de residuos mineros (iii) deslizamientos rápidos de laderas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La demanda continua e insistente de innovación en el ámbito cotidiano, nos hace perder la perspectiva de análisis cuando los procesos requieren un periodo prolongado para resolverse. Esto ocurre con los bosques ubicados en cuencas vertientes a torrentes de montaña, que tienen su origen en la restauración hidrológico-forestal llevada a cabo en las mismas, como complemento de los trabajos de corrección hidráulica efectuados en los torrentes, para controlar los procesos de erosión, inundaciones y aterramientos, desencadenados en diferentes zonas de la cuenca, cuando se dinamizan en ella los ciclos del agua y de los sedimentos a causa de los aguaceros o de la repentina fusión del manto de nieve. La cuenca vertiente al torrente de Arratiecho, situada en el municipio de Biescas, Pirineo Aragonés, fue restaurada y el barranco corregido entre 1903-05; para evitar su desertificación ante la erosión generalizada que sufría la misma, frenar el deslizamiento de una ladera morrénica y reducir los efectos de las inundaciones y aterramientos en su cono de sedimentación, donde se ubican los terrenos más fértiles y le atraviesa la carretera nacional N-260. Se comentan los trabajos realizados y los resultados obtenidos un siglo después, atendiendo especialmente a la evolución de las reforestaciones, siguiendo los criterios utilizados en el análisis de los bosques protectores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si bien se han ido realizando análisis sistemáticos desde el punto de vista arquitectónico de los diferentes jardines nacionales europeos, el jardín clásico español, a pesar del importante incremento de bibliografía operado en la última década, no ha sido todavía estudiado desde los criterios compositivos y espaciales propios de la disciplina arquitectónica. Responde el jardín clásico español a una organización perspectiva que proviene de las construcciones espaciales originadas y desarrolladas en Italia durante los siglos XV y XVI; establece, además, una importante conexión con la arquitectura de jardines contemporánea, es decir, las grandes corrientes europeas –desde el jardín renacentista italiano al barroco francés-, que asume, interpreta e incluso supera en cuanto a organización unitaria e integración con su entorno en varios ejemplos señeros. Pero esta imbricación europea se ve puntualizada por una influencia primordial: el concepto islámico del espacio arquitectónico, caracterizado por la fragmentación y la pérdida de la axialidad, que en España se extiende de forma generalizada. Fusionada con los principios perspectivos provenientes de Italia, esta concepción espacial proporciona a los jardines –y demás edificios- una gran riqueza espacial que, poco analizada y mal comprendida, se ha considerado habitualmente como falta de pericia compositiva. Este hecho ha negado a los jardines españoles originalidad alguna –otorgada, en cambio, a los hispanomusulmanes- y una clasificación periférica en la historia de la disciplina. El jardín clásico español presenta tres etapas principales: una primera, durante los siglos XVI y XVII, que se podría denominar renacentista; una segunda, en la primera mitad del siglo XVIII, de ascendencia barroca francesa, y, por último, en la segunda mitad del Ochocientos, el jardín neoclásico, que en buena medida retoma la organización formal de la primera etapa renacentista. Las tres influencias preponderantes en el jardín renacentista español son la hispanomusulmana, procedente de la ocupación islámica en España desde el siglo VIII hasta el XV, cuya estela se mantiene durante todo el desarrollo del jardín clásico; una flamenca, de menor calado y cuyo origen está en los contactos políticos de la corona española con Flandes, y, por último, la italiana, de donde procederá la espacialidad perspectiva propia del Renacimiento, extendida por toda Europa y conocida en España asimismo por vínculos políticos y culturales. El jardín hispanomusulmán va a proporcionar los rasgos distintivos de la jardinería española posterior, derivados de la necesaria adaptación compositiva a un medio físico poco idóneo para la implantación de jardines. Esta cuestión se soluciona tradicionalmente de forma perfecta con el patio y el apoyo de una serie de elementos arquitectónicos de carácter ligero articulados aleatoriamente con la vivienda para organizar su entorno, operación que produce un organismo superior asimétrico y estructurado a partir de pequeños fragmentos ordenados por ejes quebrados, cuyo crecimiento no presupone un cambio en las cualidades espaciales del jardín. Esta ordenación quebrada y la fragmentación espacial tienden a embarazar la unidad perspectiva renacentista, de tal forma que el jardín español no presenta grandes ejes visuales ni espacios fugados, sino pequeñas piezas independientes –adaptadas mejor a la corrección climática y al riego- que se agregan sin intención de regularidad o simetría, pues buscan la ambigüedad espacial mediante la ofuscación de la percepción y orientación en el jardín, como sucedía en las obras hispanomusulmanas. El jardín renacentista español tendrá una doble vertiente dependiendo del medio físico donde se asiente: si este es poco propicio a la implantación de jardines, se recuperará la ordenación espacial medieval musulmana como respuesta compositiva a dicho entorno remiso, pues los ensayos de jardines basados en elementos arquitectónicos, ante la dificultad de estructurar el espacio del jardín en España con las componentes naturales –topografía, vegetación y agua-, se realizaron con éxito y se reutilizaron en siglos posteriores, e incluso alcanzan el momento actual; contemporáneamente, en territorios propicios a la creación de jardines –generalmente, riberas de ríos-, se podrá desarrollar el espacio perspectivo unitario italiano, que producirá ejemplos de gran calidad. Así, Felipe II creará de forma simultánea jardines muy diferentes según su ubicación. Entre los de carácter más medieval destacan los del Alcázar de Madrid y Valsaín –con el antecedente de Yuste, promovido por Carlos V-, y de los plenamente renacentistas, la Casa de Campo, El Escorial y Aranjuez, éstos últimos de Juan Bautista de Toledo. Los dos primeros se organizan con varios recintos independientes articulados por ejes quebrados y ordenados a partir de elementos ligeros –galerías, torreones, miradores- que se proyectan hacia el exterior para dar forma al entorno inmediato del palacio. Los últimos, en cambio, utilizan las posibilidades del medio natural para estructurar los jardines, y establecen magníficos ejes de raigambre renacentista, origen de espacios perspectivos unitarios de gran interés, dado su tamaño y temprana fecha de creación. Así, en la Casa de Campo la villa se articula con un jardín llano cuya unidad espacial no tiene parangón en la Italia del momento; en Aranjuez, el Jardín de la Isla, independiente en su trazado del palacio que lo propicia, presenta una superposición de dos ejes con gradientes en sentido contrario, y una ordenación a escala territorial, las Huertas de Picotajo, con una malla focalizada de doble simetría adaptada a un difícil meandro del río Jarama y con capacidad de extensión ilimitada en la vega de Aranjuez, que es contemporánea pero mucho más evolucionada que los primeros tridentes creados en Italia y anterior en un siglo a las formalizaciones de Versalles. Frente a estas realizaciones reales, en España los jardines nobiliarios responden a una clara influencia medieval, como los del duque de Alcalá en Bornos, el marqués de Mondéjar, Bellaflor en Sevilla, la Casa del Rey en Arganda o el cigarral de Buenavista en Toledo. Pero en paralelo con éstos y promovidos por nobles conectados con Italia, se están implantando jardines de hispanomusulmana-, en fechas incluso anteriores a los construidos por la corona. Así, el marqués de Villena construye en Cadalso de los Vidrios un jardín con una tempranísima ordenación en terrazas que se integra con su entorno; el duque de Alba en Abadía realiza la misma operación con mayor desarrollo espacial; y en Béjar por el duque de esta ciudad salmantina se establece otro jardín de clara espacialidad italiana, pero con la casa fuera de la ordenación. El siglo XVII supone, en los escasos ejemplos construidos, la prolongación de la espacialidad renacentista introducida por Juan Bautista de Toledo. Hay una clara continuidad en los jardines aterrazados, como La Zarzuela y La Florida, mientras en el ejemplo llano principal, el Buen Retiro, se atiende más a la fragmentación hispana y a una adaptación de los sistemas de extensión al aumento de escala. Así había sucedido en Italia, donde los jardines de malla ortogonal se convirtieron en grandes parques focalizados, con avenidas arboladas y remates perspectivos, elementos que se repiten en el jardín madrileño, aunque sin la unidad conseguida en los precedentes mediante la focalización. El siglo XVIII va a conocer la nueva dinastía de los Borbones y el jardín barroco francés, que supondrá un cambio radical en la concepción espacial del jardín, aunque la influencia hispana no dejará de producirse. El tamaño de estos jardines, su coste de implantación y mantenimiento y la falta de adaptación al medio físico español serán los factores principales del escaso desarrollo que el jardín de Le Nôtre alcanzó en España. A pesar de los proyectos realizados - algunos de gran calidad, como los de Robert de Cotte para el Buen Retiro, los del Palacio Real Nuevo, el de Riofrío y el del castillo de Villaviciosa de Odón-, sólo se van a construir escasos parterres de los denominados urbanos. Entre ellos hay que destacar los del Buen Retiro, Aranjuez y palacios de Liria, Buenavista y Altamira en Madrid, Piedrahita para los duques de Alba, el convento de Santa Bárbara, Migas Calientes –algunos de éstos quedaron en proyecto-, a los que se añade un gran jardín con todos los componentes, que es San Ildefonso de La Granja. En La Granja se puede encontrar un parque completo a la francesa, que responde en mayor medida a los principios establecidos en el tratado de Dezallier d'Argenville que a la influencia directa de las obras de Le Nôtre. Pero la ordenación canónica de jardín barroco francés se particulariza mediante los dispositivos proyectuales de origen hispano, pues se desjerarquizan los ejes principales impidiendo su continuidad, que queda truncada por desarrollos paralelos, interrupciones perspectivas y ejes quebrados. En la segunda mitad del siglo XVIII, los propios monarcas Borbones recuperarán los jardines regulares de los Austrias, cuyos tipos llano y aterrazado tuvieron un importante desarrollo con Felipe II y Juan Bautista de Toledo y gozaban de un merecido prestigio. Ya con Fernando VI se introdujeron ordenaciones de inspiración renacentista, como en el Jardín del Príncipe de Aranjuez; pero será con su hermano Carlos III cuando se revisen las actuaciones filipinas. Juan de Villanueva fue el autor de los principales jardines del momento -entre ellos, las Casitas realizadas para el príncipe de Asturias, el futuro Carlos IV y su hermano el infante Don Gabriel- aunque Ventura Rodríguez realizó en esos años un magnífico epílogo del jardín aterrazado en España: el palacio para el infante Don Luis en Boadilla del Monte, así como proyectos para el parque del Palacio Real Nuevo. En las Casitas de El Escorial –en menor medida en El Pardo-, Villanueva recoge una larga tradición de jardines aterrazados que, además, inserta magistralmente en su entorno, dentro de la secular tradición española de adaptación al medio físico. Lejos de presentar una lectura canónica, aunque utilizando todos los recursos del tipo, el arquitecto consigue la ambigüedad espacial hispana mediante la superposición en el eje longitudinal de dos gradaciones de dirección contraria, accesos quebrados e interrupción de las visuales y el viario, sin prescindir de una ordenación clásica. También de Villanueva son el proyecto definitivo del Jardín Botánico, de gran claridad compositiva y orden científico, y, para el Palacio Real Nuevo y su entorno, el jardín previo a las Reales Caballerizas y una remodelación de la Casa de Campo y su acceso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestión de los residuos radiactivos de vida larga producidos en los reactores nucleares constituye uno de los principales desafíos de la tecnología nuclear en la actualidad. Una posible opción para su gestión es la transmutación de los nucleidos de vida larga en otros de vida más corta. Los sistemas subcríticos guiados por acelerador (ADS por sus siglas en inglés) son una de las tecnologías en desarrollo para logar este objetivo. Un ADS consiste en un reactor nuclear subcrítico mantenido en un estado estacionario mediante una fuente externa de neutrones guiada por un acelerador de partículas. El interés de estos sistemas radica en su capacidad para ser cargados con combustibles que tengan contenidos de actínidos minoritarios mayores que los reactores críticos convencionales, y de esta manera, incrementar las tasas de trasmutación de estos elementos, que son los principales responsables de la radiotoxicidad a largo plazo de los residuos nucleares. Uno de los puntos clave que han sido identificados para la operación de un ADS a escala industrial es la necesidad de monitorizar continuamente la reactividad del sistema subcrítico durante la operación. Por esta razón, desde los años 1990 se han realizado varios experimentos en conjuntos subcríticos de potencia cero (MUSE, RACE, KUCA, Yalina, GUINEVERE/FREYA) con el fin de validar experimentalmente estas técnicas. En este contexto, la presente tesis se ocupa de la validación de técnicas de monitorización de la reactividad en el conjunto subcrítico Yalina-Booster. Este conjunto pertenece al Joint Institute for Power and Nuclear Research (JIPNR-Sosny) de la Academia Nacional de Ciencias de Bielorrusia. Dentro del proyecto EUROTRANS del 6º Programa Marco de la UE, en el año 2008 se ha realizado una serie de experimentos en esta instalación concernientes a la monitorización de la reactividad bajo la dirección del CIEMAT. Se han realizado dos tipos de experimentos: experimentos con una fuente de neutrones pulsada (PNS) y experimentos con una fuente continua con interrupciones cortas (beam trips). En el caso de los primeros, experimentos con fuente pulsada, existen dos técnicas fundamentales para medir la reactividad, conocidas como la técnica del ratio bajo las áreas de los neutrones inmediatos y retardados (o técnica de Sjöstrand) y la técnica de la constante de decaimiento de los neutrones inmediatos. Sin embargo, varios experimentos han mostrado la necesidad de aplicar técnicas de corrección para tener en cuenta los efectos espaciales y energéticos presentes en un sistema real y obtener valores precisos de la reactividad. En esta tesis, se han investigado estas correcciones mediante simulaciones del sistema con el código de Montecarlo MCNPX. Esta investigación ha servido también para proponer una versión generalizada de estas técnicas donde se buscan relaciones entre la reactividad el sistema y las cantidades medidas a través de simulaciones de Monte Carlo. El segundo tipo de experimentos, experimentos con una fuente continua e interrupciones del haz, es más probable que sea empleado en un ADS industrial. La versión generalizada de las técnicas desarrolladas para los experimentos con fuente pulsada también ha sido aplicada a los resultados de estos experimentos. Además, el trabajo presentado en esta tesis es la primera vez, en mi conocimiento, en que la reactividad de un sistema subcrítico se monitoriza durante la operación con tres técnicas simultáneas: la técnica de la relación entre la corriente y el flujo (current-to-flux), la técnica de desconexión rápida de la fuente (source-jerk) y la técnica del decaimiento de los neutrones inmediatos. Los casos analizados incluyen la variación rápida de la reactividad del sistema (inserción y extracción de las barras de control) y la variación rápida de la fuente de neutrones (interrupción larga del haz y posterior recuperación). ABSTRACT The management of long-lived radioactive wastes produced by nuclear reactors constitutes one of the main challenges of nuclear technology nowadays. A possible option for its management consists in the transmutation of long lived nuclides into shorter lived ones. Accelerator Driven Subcritical Systems (ADS) are one of the technologies in development to achieve this goal. An ADS consists in a subcritical nuclear reactor maintained in a steady state by an external neutron source driven by a particle accelerator. The interest of these systems lays on its capacity to be loaded with fuels having larger contents of minor actinides than conventional critical reactors, and in this way, increasing the transmutation rates of these elements, that are the main responsible of the long-term radiotoxicity of nuclear waste. One of the key points that have been identified for the operation of an industrial-scale ADS is the need of continuously monitoring the reactivity of the subcritical system during operation. For this reason, since the 1990s a number of experiments have been conducted in zero-power subcritical assemblies (MUSE, RACE, KUCA, Yalina, GUINEVERE/FREYA) in order to experimentally validate these techniques. In this context, the present thesis is concerned with the validation of reactivity monitoring techniques at the Yalina-Booster subcritical assembly. This assembly belongs to the Joint Institute for Power and Nuclear Research (JIPNR-Sosny) of the National Academy of Sciences of Belarus. Experiments concerning reactivity monitoring have been performed in this facility under the EUROTRANS project of the 6th EU Framework Program in year 2008 under the direction of CIEMAT. Two types of experiments have been carried out: experiments with a pulsed neutron source (PNS) and experiments with a continuous source with short interruptions (beam trips). For the case of the first ones, PNS experiments, two fundamental techniques exist to measure the reactivity, known as the prompt-to-delayed neutron area-ratio technique (or Sjöstrand technique) and the prompt neutron decay constant technique. However, previous experiments have shown the need to apply correction techniques to take into account the spatial and energy effects present in a real system and thus obtain accurate values for the reactivity. In this thesis, these corrections have been investigated through simulations of the system with the Monte Carlo code MCNPX. This research has also served to propose a generalized version of these techniques where relationships between the reactivity of the system and the measured quantities are obtained through Monte Carlo simulations. The second type of experiments, with a continuous source with beam trips, is more likely to be employed in an industrial ADS. The generalized version of the techniques developed for the PNS experiments has also been applied to the result of these experiments. Furthermore, the work presented in this thesis is the first time, to my knowledge, that the reactivity of a subcritical system has been monitored during operation simultaneously with three different techniques: the current-to-flux, the source-jerk and the prompt neutron decay techniques. The cases analyzed include the fast variation of the system reactivity (insertion and extraction of a control rod) and the fast variation of the neutron source (long beam interruption and subsequent recovery).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente artículo se discuten tres corrientes teóricas alter-nativas al cognitivismo, para explicar el desarrollo hacia la pericia en el ám-bito del aprendizaje y del control motor en deporte, haciendo especial énfa-sis en el enactivismo. En la primera parte se tratan las principales nociones de la psicología ecológica, como la regulación del movimiento, la percep-ción directa o la reciprocidad entre percepción y acción. A continuación se explican las principales aportaciones de la teoría de los sistemas dinámicos a la comprensión de la coordinación del movimiento, de la emergencia de la motricidad y de la interacción de las diferentes variables o restricciones. En el siguiente apartado, se expone el enfoque enactivo como una extensión conceptual proveniente de las ciencias cognitivas y que trasciende a los otros paradigmas. Desde esta orientación, se aboga por una fusión entre el cuerpo y la mente del deportista que es indisociable al medio ambiente y que se opone al dualismo y reduccionismo imperante. Por último, se pre-sentan algunas directrices y aplicaciones de investigaciones enactivas que en la actualidad están en pleno desarrollo. Palabras clave: Enactivismo; cognición; acoplamiento información-movimiento; post-cognitivismo; deporte; pericia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los cómics son parte integral de la vida cultural de los jóvenes. Con millones de ejemplares, la serie de publicaciones Los Pitufos es mundialmente conocida. Pero, ¿qué mensajes envían estas publicaciones a la juventud? Es necesario preguntarse sobre la representación del deporte dentro de esta serie. Más aún, es importante analizar la imagen del dopaje que estas publicaciones transmiten. Este trabajo expone los resultados del estudio del famoso volumen Los Pitufos Olímpicos que, con impresionantes resultados comerciales, ve la luz en 1983, algunos meses antes del comienzo de los Juegos Olímpicos de Los Ángeles. Por un lado, interpretando los efectos cómicos explotados por este cómic, el presente artículo pone de manifiesto la existencia de una crítica generalizada del fenómeno deportivo y del Olimpismo que podría revelarse concordante con la manera en la que las jóvenes generaciones de los años 80 aprehenden las prácticas competitivas. Por otro lado, el estudio revela que este volumen logra satisfacer tanto los intentos fogosos y críticos de la impertinente juventud como las demandas institucionales simbolizadas por la censura ministerial y parental preocupada por la paz social. Dicho de otro modo, este cómic tendría el ingenioso mérito de lograr la hazaña de aniquilar esta oposición generacional enviando un discurso crítico respecto al deporte adornado de un mensaje educativo y optimista.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo es investigar las barreras u obstáculos que dificultan el intercambio del conocimiento entre los trabajadores desde las perspectivas teórica y práctica. Se trata de una investigación novedosa en España por el tamaño de la muestra utilizada, pues sólo se han encontrado tres referencias de esta naturaleza para empresas chinas y americanas. A ese fin se han revisado los estudios teóricos de naturaleza psicológica y motivacional que explican el comportamiento y la actitud del trabajador, y los estudios sobre el clima, compromiso y estilo de dirección que afectan a la compartición del conocimiento en la empresa. Esto justifica las bases teóricas en las que se sustenta el estudio, así como su propósito y los beneficios que aporta a la organización. Para la investigación empírica se ha elaborado una encuesta para una muestra de 557 trabajadores de 27 empresas de la provincia de Burgos, España. Los resultados obtenidos, referidos a las personas, revelan que las barreras más importantes al intercambio son la apropiación del conocimiento por los demás, la falta de incentivos explícitos, la ausencia de reciprocidad entre los compañeros y el contrato temporal o eventual. En cuanto a las negligencias o conductas de la dirección destacan la contratación por influencias o ‘enchufismo’, el acoso y humillación hacia el empleado, los climas laborales inadecuados, una estructura organizativa mal diseñada o inexistente, o los estilos de dirección autoritarios y personalistas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El taller de proyectos constituye el núcleo de la enseñanza arquitectónica. Estudiar sus procesos educativos en la actualidad implica la contextualización teórica del acto educativo y la revisión histórica de la evolución de su estructura social. Esta estructura, es heredera de la larga tradición del taller donde los maestros de obra, artesanos, arquitectos y artistas, se ocupaban desde siempre de la enseñanza de la construcción, de la artesanía, del diseño arquitectónico y del arte. Los aprendices se sometían a la autoridad de sus maestros y pasaban horas practicando, produciendo y aprendiendo junto a ellos. Con la aparición de las primeras Academias de arte y posteriormente de arquitectura, se evidenció un progresivo interés de los Estados hacía los productos artísticos y arquitectónicos. La consideración de las artes y de la arquitectura como proyecto estatal, supuso la construcción lenta, pero consolidable, de un proyecto educativo paralelo, coexistiendo simultáneamente con los talleres de los maestros, pero sin posibilidad de integración, hasta mucho más tarde. La “teoría”, que es de lo que se ocupaba la academia, con la “práctica” que es lo que se desarrollaba en el taller, no encontraban fácilmente la manera de encajarse y complementarse mutuamente en un proyecto educativo común. Las concepciones educativas de ambos, afrontaban la enseñanza y el aprendizaje desde puntos de vista también diferentes; mientras la Academia representaba el conocimiento validado y explicitado, en el taller se trabajaba con un conocimiento tácito e implícito. En la práctica artística del taller era donde se producía el aprendizaje mientras que en la Academia es donde se validaba. Esta estructura llegó en muchas ocasiones a situaciones extremas, no siendo casual que las más grandes crisis registradas en la historia de la enseñanza de las artes, coincidieran con un aumento de la distancia entre estas dos “instituciones”, talleres y academias. Por otra parte, parece que cualquier proyecto o concepto innovador, se ha fundado sobre la redistribución de estos equilibrios perdidos. En dicho contexto, en el campo de la educación y especialmente en el siglo XX, surge un debate que se estructura en base a los fines de la educación, contemplando dos posturas bien diferenciadas. Una de ellas sostiene como fin primordial de la educación, el desarrollo de la conciencia y la reciprocidad social del individuo. La otra, fija como fin el desarrollo de su singularidad. La búsqueda del equilibrio entre ambas, parte del interés por fomentar el crecimiento de lo que cada ser humano posee de individual, armonizándolo con la unidad orgánica del grupo social al que pertenece (Read 2010, 33). Sobre esta tensión se han basado muchos de los discursos pedagógicos y especialmente los aquí usados. La estructura social en los talleres de proyectos arquitectónicos, presenta hoy día una máxima integración entre las dos instituciones, el taller y la Academia, tanto a nivel del espacio, donde tiene lugar la enseñanza, como a nivel conceptual y pedagógico. Los talleres de proyectos poseen un formato de enseñanza y aprendizaje que constituye un paradigma (Schön, 2008) no solo dentro, sino también fuera del campo arquitectónico. Bajo este formato se complementa el aprendizaje práctico con el teórico y la producción, con la validación del conocimiento. Aunque tal estructura pedagógica presenta importantes variaciones entre unas escuelas de arquitectura y otras, los principales procesos que tienen lugar, son lo suficientemente similares, como para poder ser examinados desde una perspectiva común. Esta investigación, estudia el taller de proyectos desde un aspecto pedagógico, que contempla tanto los discursos educativos, como la historia de la evolución del taller como constructo social. El análisis se estructura sobre los elementos fundantes del acto didáctico: un sujeto que aprende, un sujeto que enseña, un método, la estrategia o procedimiento a través del que se enseña, un contenido y el propio acto docente (Sánchez Cerezo, 1994, 530). Además, se han añadido otros dos elementos que se consideran fundamentales para llevar a cabo el estudio: el contexto de la enseñanza, tanto el tangible como el intangible y la evaluación de la enseñanza y del aprendizaje. El caso de estudio de la presente investigación se sitúa en la Escuela de Arquitectura de Madrid en la actualidad. Sin embargo, no se pretende generar un retrato exacto de esta institución sino utilizarla como ejemplo principal en el desarrollo de los capítulos del método, contenido, acto docente y contexto, en los que también se introducen ejemplos de otras escuelas de arquitectura que amplían los argumentos presentados que constituyen la contextualización teórica del acto pedagógico en los talleres de proyectos arquitectónicos. ABSTRACT Design studio constitutes the core of architectural education. To study its current educational processes involves a theoretical approach of its educational praxis and an historic revision of how its social structure evolved. This structure is inherited from the long tradition of the workshop in which master masons, craftsmen, architects and artists have always been in charge of teaching construction, crafts, architectural design and art. Apprentices were subjected to the authority of their teachers and spent hours practicing, producing and learning along with them. With the establishment of the first Academies of Art and later of Architecture, the interest of the State in artistic and architectural products started growing. The understanding of arts and architecture as a state project entailed the slow, but robust development of a parallel education project. This project coexisted with the masters’ workshops, without the possibility of integration between two, until much later. It was difficult to find a way to synthesize academic “theory” with workshop “practice”. The workshops’ and the Academy's conception about teaching and learning differed significantly. While the Academy represented a verified and explicit knowledge, the workshop worked with a tacit and implicit knowledge. The workshops produced education through artistic practice, while the the Academy organized and verified knowledge. This dual framework has on occasions reached extremes. It is no accident that the biggest known crises in the history of arts education coincide with an increase in the distance between these two "institutions", the workshops and Academies. Furthermore, it seems that most innovative concepts or projects have been founded on restoring the lost balance between the two. In this context, in the field of education, and especially during the 20th century, a debate that contemplated the purpose of education and resulted in two quite differentiated approaches, emerged,. One position claims as the primary purpose of education the development of social awareness and mutuality in individuals. The other approach sets as a purpose developing each student's uniqueness. The quest for the right balance between these two positions is based on the assumption that the general purpose of education is to foster the growth of what is individual in each human being, at the same time harmonizing the individuality thus educed with the organic unity of the social group to which the individual belongs (Read, 2010, 33). This tension forms the basis for many pedagogical discourses, especially the ones utilized in this dissertation. The social structure of architecture studios today demonstrates a very high level of integration between the two institutions, the workshop and the Academy, both in terms of space —where the teaching takes place— as well as on a conceptual and pedagogical level. Architecture studios today have developed a format for teaching and learning that has established a paradigm (Schön, 2008) , not only in architecture, but also in other fields. Under this paradigm, practical and theoretical learning, as well as production and verification of knowledge, complement each other. And although this pedagogical structure presents important variations among different schools of architecture, the principal processes that take place in the studio are sufficiently similar so as to be examined from a common perspective. This research examines the architecture studio from a pedagogical point of view, that takes into account both the educational discourses, as well as the historical evolution of the workshop as a social structure. The analysis presented here is structured on the fundamentals of the teaching act: an individual learning, an individual teaching, a method, strategy or procedure for teaching and learning, the content and the teaching act itself (Sánchez Cerezo, 1994, 530). Two extra elements that were considered essential for carrying out this study have also been added: the context in which teaching takes place, tangible as well as intangible, and the evaluation of teaching and learning. The Madrid School of Architecture in the present day served as a case study. However the aim is not to generate an accurate portrayal of this school but to use it as the principal example for the development of the chapters of method, content, teaching act and context. In addition to that, examples from other schools of architecture are introduced in order to further the presented arguments that constitute the theoretical contextualization of the pedagogical act in architecture studios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En España existen del orden de 1,300 grandes presas, de las cuales un 20% fueron construidas antes de los años 60. El hecho de que existan actualmente una gran cantidad de presas antiguas aún en operación, ha producido un creciente interés en reevaluar su seguridad empleando herramientas nuevas o modificadas que incorporan modelos de fallo teóricos más completos, conceptos geotécnicos más complejos y nuevas técnicas de evaluación de la seguridad. Una manera muy común de abordar el análisis de estabilidad de presas de gravedad es, por ejemplo, considerar el deslizamiento a través de la interfase presa-cimiento empleando el criterio de rotura lineal de Mohr-Coulomb, en donde la cohesión y el ángulo de rozamiento son los parámetros que definen la resistencia al corte de la superficie de contacto. Sin embargo la influencia de aspectos como la presencia de planos de debilidad en el macizo rocoso de cimentación; la influencia de otros criterios de rotura para la junta y para el macizo rocoso (ej. el criterio de rotura de Hoek-Brown); las deformaciones volumétricas que ocurren durante la deformación plástica en el fallo del macizo rocoso (i.e., influencia de la dilatancia) no son usualmente consideradas durante el diseño original de la presa. En este contexto, en la presente tesis doctoral se propone una metodología analítica para el análisis de la estabilidad al deslizamiento de presas de hormigón, considerando un mecanismo de fallo en la cimentación caracterizado por la presencia de una familia de discontinuidades. En particular, se considera la posibilidad de que exista una junta sub-horizontal, preexistente y persistente en el macizo rocoso de la cimentación, con una superficie potencial de fallo que se extiende a través del macizo rocoso. El coeficiente de seguridad es entonces estimado usando una combinación de las resistencias a lo largo de los planos de rotura, cuyas resistencias son evaluadas empleando los criterios de rotura no lineales de Barton y Choubey (1977) y Barton y Bandis (1990), a lo largo del plano de deslizamiento de la junta; y el criterio de rotura de Hoek y Brown (1980) en su versión generalizada (Hoek et al. 2002), a lo largo del macizo rocoso. La metodología propuesta también considera la influencia del comportamiento del macizo rocoso cuando este sigue una ley de flujo no asociada con ángulo de dilatancia constante (Hoek y Brown 1997). La nueva metodología analítica propuesta es usada para evaluar las condiciones de estabilidad empleando dos modelos: un modelo determinista y un modelo probabilista, cuyos resultados son el valor del coeficiente de seguridad y la probabilidad de fallo al deslizamiento, respectivamente. El modelo determinista, implementado en MATLAB, es validado usando soluciones numéricas calculadas mediante el método de las diferencias finitas, empleando el código FLAC 6.0. El modelo propuesto proporciona resultados que son bastante similares a aquellos calculados con FLAC; sin embargo, los costos computacionales de la formulación propuesta son significativamente menores, facilitando el análisis de sensibilidad de la influencia de los diferentes parámetros de entrada sobre la seguridad de la presa, de cuyos resultados se obtienen los parámetros que más peso tienen en la estabilidad al deslizamiento de la estructura, manifestándose además la influencia de la ley de flujo en la rotura del macizo rocoso. La probabilidad de fallo es obtenida empleando el método de fiabilidad de primer orden (First Order Reliability Method; FORM), y los resultados de FORM son posteriormente validados mediante simulaciones de Monte Carlo. Los resultados obtenidos mediante ambas metodologías demuestran que, para el caso no asociado, los valores de probabilidad de fallo se ajustan de manera satisfactoria a los obtenidos mediante las simulaciones de Monte Carlo. Los resultados del caso asociado no son tan buenos, ya que producen resultados con errores del 0.7% al 66%, en los que no obstante se obtiene una buena concordancia cuando los casos se encuentran en, o cerca de, la situación de equilibrio límite. La eficiencia computacional es la principal ventaja que ofrece el método FORM para el análisis de la estabilidad de presas de hormigón, a diferencia de las simulaciones de Monte Carlo (que requiere de al menos 4 horas por cada ejecución) FORM requiere tan solo de 1 a 3 minutos en cada ejecución. There are 1,300 large dams in Spain, 20% of which were built before 1960. The fact that there are still many old dams in operation has produced an interest of reevaluate their safety using new or updated tools that incorporate state-of-the-art failure modes, geotechnical concepts and new safety assessment techniques. For instance, for gravity dams one common design approach considers the sliding through the dam-foundation interface, using a simple linear Mohr-Coulomb failure criterion with constant friction angle and cohesion parameters. But the influence of aspects such as the persistence of joint sets in the rock mass below the dam foundation; of the influence of others failure criteria proposed for rock joint and rock masses (e.g. the Hoek-Brown criterion); or the volumetric strains that occur during plastic failure of rock masses (i.e., the influence of dilatancy) are often no considered during the original dam design. In this context, an analytical methodology is proposed herein to assess the sliding stability of concrete dams, considering an extended failure mechanism in its rock foundation, which is characterized by the presence of an inclined, and impersistent joint set. In particular, the possibility of a preexisting sub-horizontal and impersistent joint set is considered, with a potential failure surface that could extend through the rock mass; the safety factor is therefore computed using a combination of strength along the rock joint (using the nonlinear Barton and Choubey (1977) and Barton and Bandis (1990) failure criteria) and along the rock mass (using the nonlinear failure criterion of Hoek and Brown (1980) in its generalized expression from Hoek et al. (2002)). The proposed methodology also considers the influence of a non-associative flow rule that has been incorporated using a (constant) dilation angle (Hoek and Brown 1997). The newly proposed analytical methodology is used to assess the dam stability conditions, employing for this purpose the deterministic and probabilistic models, resulting in the sliding safety factor and the probability of failure respectively. The deterministic model, implemented in MATLAB, is validated using numerical solution computed with the finite difference code FLAC 6.0. The proposed deterministic model provides results that are very similar to those computed with FLAC; however, since the new formulation can be implemented in a spreadsheet, the computational cost of the proposed model is significantly smaller, hence allowing to more easily conduct parametric analyses of the influence of the different input parameters on the dam’s safety. Once the model is validated, parametric analyses are conducting using the main parameters that describe the dam’s foundation. From this study, the impact of the more influential parameters on the sliding stability analysis is obtained and the error of considering the flow rule is assessed. The probability of failure is obtained employing the First Order Reliability Method (FORM). The probabilistic model is then validated using the Monte Carlo simulation method. Results obtained using both methodologies show good agreement for cases in which the rock mass has a nonassociate flow rule. For cases with an associated flow rule errors between 0.70% and 66% are obtained, so that the better adjustments are obtained for cases with, or close to, limit equilibrium conditions. The main advantage of FORM on sliding stability analyses of gravity dams is its computational efficiency, so that Monte Carlo simulations require at least 4 hours on each execution, whereas FORM requires only 1 to 3 minutes on each execution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El funcionamiento interno del cerebro es todavía hoy en día un misterio, siendo su comprensión uno de los principales desafíos a los que se enfrenta la ciencia moderna. El córtex cerebral es el área del cerebro donde tienen lugar los procesos cerebrales de más alto nivel, cómo la imaginación, el juicio o el pensamiento abstracto. Las neuronas piramidales, un tipo específico de neurona, suponen cerca del 80% de los cerca de los 10.000 millones de que componen el córtex cerebral, haciendo de ellas un objetivo principal en el estudio del funcionamiento del cerebro. La morfología neuronal, y más específicamente la morfología dendrítica, determina cómo estas procesan la información y los patrones de conexión entre neuronas, siendo los modelos computacionales herramientas imprescindibles para el estudio de su rol en el funcionamiento del cerebro. En este trabajo hemos creado un modelo computacional, con más de 50 variables relativas a la morfología dendrítica, capaz de simular el crecimiento de arborizaciones dendríticas basales completas a partir de reconstrucciones de neuronas piramidales reales, abarcando desde el número de dendritas hasta el crecimiento los los árboles dendríticos. A diferencia de los trabajos anteriores, nuestro modelo basado en redes Bayesianas contempla la arborización dendrítica en su conjunto, teniendo en cuenta las interacciones entre dendritas y detectando de forma automática las relaciones entre las variables morfológicas que caracterizan la arborización. Además, el análisis de las redes Bayesianas puede ayudar a identificar relaciones hasta ahora desconocidas entre variables morfológicas. Motivado por el estudio de la orientación de las dendritas basales, en este trabajo se introduce una regularización L1 generalizada, aplicada al aprendizaje de la distribución von Mises multivariante, una de las principales distribuciones de probabilidad direccional multivariante. También se propone una distancia circular multivariante que puede utilizarse para estimar la divergencia de Kullback-Leibler entre dos muestras de datos circulares. Comparamos los modelos con y sin regularizaci ón en el estudio de la orientación de la dendritas basales en neuronas humanas, comprobando que, en general, el modelo regularizado obtiene mejores resultados. El muestreo, ajuste y representación de la distribución von Mises multivariante se implementa en un nuevo paquete de R denominado mvCircular.---ABSTRACT---The inner workings of the brain are, as of today, a mystery. To understand the brain is one of the main challenges faced by current science. The cerebral cortex is the region of the brain where all superior brain processes, like imagination, judge and abstract reasoning take place. Pyramidal neurons, a specific type of neurons, constitute approximately the 80% of the more than 10.000 million neurons that compound the cerebral cortex. It makes the study of the pyramidal neurons crucial in order to understand how the brain works. Neuron morphology, and specifically the dendritic morphology, determines how the information is processed in the neurons, as well as the connection patterns among neurons. Computational models are one of the main tools for studying dendritic morphology and its role in the brain function. We have built a computational model that contains more than 50 morphological variables of the dendritic arborizations. This model is able to simulate the growth of complete dendritic arborizations from real neuron reconstructions, starting with the number of basal dendrites, and ending modeling the growth of dendritic trees. One of the main diferences between our approach, mainly based on the use of Bayesian networks, and other models in the state of the art is that we model the whole dendritic arborization instead of focusing on individual trees, which makes us able to take into account the interactions between dendrites and to automatically detect relationships between the morphologic variables that characterize the arborization. Moreover, the posterior analysis of the relationships in the model can help to identify new relations between morphological variables. Motivated by the study of the basal dendrites orientation, a generalized L1 regularization applied to the multivariate von Mises distribution, one of the most used distributions in multivariate directional statistics, is also introduced in this work. We also propose a circular multivariate distance that can be used to estimate the Kullback-Leibler divergence between two circular data samples. We compare the regularized and unregularized models on basal dendrites orientation of human neurons and prove that regularized model achieves better results than non regularized von Mises model. Sampling, fitting and plotting functions for the multivariate von Mises are implemented in a new R packaged called mvCircular.