862 resultados para criterio de selección


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Biografía y textos de: Vicente Verdú, Manuel Vicent, María Beneyto, Enrique Cerdán Tato, Francisco Candel, Francisco Brines, Jaume Pérez Montaner, Juan José Millás, Marc Granell, Vicente Muñoz Puelles, Xavier Casp, Vicente Soto, Jenaro Talens, Jaime Siles, Pedro J. de la Peña, José Albi, Tomás Segovia, José Sanchis Sinisterra, Guillermo Carnero, Francisca Aguirre, Vicente Molina Foix

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La incorporación de nuevos valores del comportamiento empresarial condiciona los criterios para adoptar decisiones estratégicas ya que coexisten los clásicos principios de inversión y beneficio con las obligaciones de respeto a la calidad medioambiental y los criterios de comportamiento sostenible. Todo ello justifica una investigación orientada a conseguir el objetivo de proporcionar una herramienta de ayuda en la toma de decisiones en materia de localización, ampliación, traslado o cierre para jerarquizar objetiva y eficazmente las alternativas evaluadas. Se ha decidido evaluar la incorporación de factores de sostenibilidad cuyo empleo esté apoyado en métodos de análisis multicriterio. Así de la intersección entre la primera etapa de elección de criterios de carácter eminentemente técnicos con la segunda donde se establecen las preferencias reales del centro decisor mediante la denominada función criterio o de utilidad (Romero, 1996) se puede obtener una solución óptima y sostenible al problema. 1-27 La investigación se ha centrado en la etapa de definición de criterios con el objetivo adicional de que buena parte de ellos puedan ser criterios utilizados frecuentemente en los Sistemas de Gestión Medioambiental y en la evaluación de comportamientos sobre sostenibilidad y Responsabilidad Social Corporativa. A su vez, se ha previsto alcanzar cinco objetivos específicos: 1. Evaluar el concepto de desarrollo sostenible para su adaptación a los múltiples ámbitos en los que actualmente se aplica. 2. Revisar la aplicación del concepto de sostenibilidad al ámbito empresarial, incidiendo en los instrumentos y metodologías desarrolladas para ello. 3. Investigar y seleccionar los aspectos frecuentemente considerados en la evaluación de la sostenibilidad aplicada al ámbito empresarial y explorar su utilidad como factor de sostenibilidad en la toma de decisiones estratégicas. 4. Establecer una metodología para la selección de indicadores de sostenibilidad y un modelo que permita su aplicación en la toma de decisiones estratégicas. 5. Evaluar y validar el comportamiento del modelo mediante su aplicación a situaciones reales. Los tres primeros objetivos tienen un carácter exclusivamente teórico orientado a lograr una adecuada identificación de los planteamientos realizados en torno al concepto general de sostenibilidad y las particularidades de su aplicación en el ámbito empresarial. El cumplimiento del cuarto y quinto objetivos supone evaluar la utilidad del modelo y analizar las dificultades en su utilización. El logro de los objetivos de la investigación puede contribuir al desarrollo de nuevos instrumentos que permitan incluir la sostenibilidad como criterio en la toma de decisiones relativa a la implantación, ampliación, cierre o traslado de instalaciones industriales. Adicionalmente, el resultado de esta investigación puede ofrecer la utilidad añadida de mejorar o potenciar los instrumentos actuales de evaluación de la responsabilidad social empresarial y de gestión medioambiental.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La gestión de riesgos debe ser entendida como una determinación de vínculos entre lo que se asume como vulnerabilidad, y la forma en la que se determinarían o estimarían la probabilidad en la concurrencia de un determinado hecho, partiendo de la idea de la concurrencia de un fenómeno y las acciones necesarias que deberán llevarse a cabo. El tema de vulnerabilidad y riesgo, cada día toma más importancia a nivel mundial, a medida que pasa el tiempo es más notoria la vulnerabilidad de ciertas poblaciones ante la presencia de determinados peligros naturales como son: inundaciones, desbordes de ríos, deslizamientos de tierra y movimientos sísmicos. La vulnerabilidad aumenta, a medida que crece la deforestación. La construcción en lugares de alto riesgo, como por ejemplo, viviendas a orillas de los ríos, está condicionada por la localización y las condiciones de uso del suelo, infraestructura, construcciones, viviendas, distribución y densidad de población, capacidad de organización, etc. Es ahora donde la gestión de riesgos, juega un papel muy importante en la sociedad moderna, siendo esta cada vez más exigente con los resultados y calidad de productos y servicios, además de cumplir también, con la responsabilidad jurídica que trae la concepción, diseño y construcción de proyectos en zonas inundables. El presente trabajo de investigación, se centra en identificar los riesgos, aplicando soluciones estructurales y recomendaciones resilientes para edificaciones que se encuentren emplazadas en zonas inundables. Disminuyendo así el riesgo de fallo estructural y el número de víctimas considerablemente. Concluyendo con un Catálogo de Riesgos y Soluciones para edificaciones en zonas inundables. Risk management should be understood as a determination of links between what is assumed to be vulnerable , and how that would be determined or would estimate the probability in the occurrence of a certain event, based on the idea of the occurrence of a phenomenon and necessary actions to be carried out . The issue of vulnerability and risk, every day takes more importance globally, as time passes is more notorious vulnerability of certain populations in the presence of certain natural hazards such as floods, swollen rivers, landslides and earthquakes. Vulnerability increases as it grows deforestation. The construction in high-risk locations, such as homes on the banks of rivers, is conditioned by the location and conditions of land use, infrastructure, construction, housing, distribution and population density, organizational skills, etc. Now where risk management plays a very important role in modern society, is being increasingly demanding with the results and quality of products and services, and also comply with the legal responsibility that brings the conception, design and construction projects in flood zones. This research focuses on identifying risks, implementing structural solutions and resilients’ recommendations for buildings that are emplaced in flood zones. Thus decreasing the risk of structural failure and the number of victims significantly. Concluding with a Catalogue of Risks and Solutions for buildings in flood zones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMEN El apoyo a la selección de especies a la restauración de la vegetación en España en los últimos 40 años se ha basado fundamentalmente en modelos de distribución de especies, también llamados modelos de nicho ecológico, que estiman la probabilidad de presencia de las especies en función de las condiciones del medio físico (clima, suelo, etc.). Con esta tesis se ha intentado contribuir a la mejora de la capacidad predictiva de los modelos introduciendo algunas propuestas metodológicas adaptadas a los datos disponibles actualmente en España y enfocadas al uso de los modelos en la selección de especies. No siempre se dispone de datos a una resolución espacial adecuada para la escala de los proyectos de restauración de la vegetación. Sin embrago es habitual contar con datos de baja resolución espacial para casi todas las especies vegetales presentes en España. Se propone un método de recalibración que actualiza un modelo de regresión logística de baja resolución espacial con una nueva muestra de alta resolución espacial. El método permite obtener predicciones de calidad aceptable con muestras relativamente pequeñas (25 presencias de la especie) frente a las muestras mucho mayores (más de 100 presencias) que requería una estrategia de modelización convencional que no usara el modelo previo. La selección del método estadístico puede influir decisivamente en la capacidad predictiva de los modelos y por esa razón la comparación de métodos ha recibido mucha atención en la última década. Los estudios previos consideraban a la regresión logística como un método inferior a técnicas más modernas como las de máxima entropía. Los resultados de la tesis demuestran que esa diferencia observada se debe a que los modelos de máxima entropía incluyen técnicas de regularización y la versión de la regresión logística usada en las comparaciones no. Una vez incorporada la regularización a la regresión logística usando penalización, las diferencias en cuanto a capacidad predictiva desaparecen. La regresión logística penalizada es, por tanto, una alternativa más para el ajuste de modelos de distribución de especies y está a la altura de los métodos modernos con mejor capacidad predictiva como los de máxima entropía. A menudo, los modelos de distribución de especies no incluyen variables relativas al suelo debido a que no es habitual que se disponga de mediciones directas de sus propiedades físicas o químicas. La incorporación de datos de baja resolución espacial proveniente de mapas de suelo nacionales o continentales podría ser una alternativa. Los resultados de esta tesis sugieren que los modelos de distribución de especies de alta resolución espacial mejoran de forma ligera pero estadísticamente significativa su capacidad predictiva cuando se incorporan variables relativas al suelo procedente de mapas de baja resolución espacial. La validación es una de las etapas fundamentales del desarrollo de cualquier modelo empírico como los modelos de distribución de especies. Lo habitual es validar los modelos evaluando su capacidad predictiva especie a especie, es decir, comparando en un conjunto de localidades la presencia o ausencia observada de la especie con las predicciones del modelo. Este tipo de evaluación no responde a una cuestión clave en la restauración de la vegetación ¿cuales son las n especies más idóneas para el lugar a restaurar? Se ha propuesto un método de evaluación de modelos adaptado a esta cuestión que consiste en estimar la capacidad de un conjunto de modelos para discriminar entre las especies presentes y ausentes de un lugar concreto. El método se ha aplicado con éxito a la validación de 188 modelos de distribución de especies leñosas orientados a la selección de especies para la restauración de la vegetación en España. Las mejoras metodológicas propuestas permiten mejorar la capacidad predictiva de los modelos de distribución de especies aplicados a la selección de especies en la restauración de la vegetación y también permiten ampliar el número de especies para las que se puede contar con un modelo que apoye la toma de decisiones. SUMMARY During the last 40 years, decision support tools for plant species selection in ecological restoration in Spain have been based on species distribution models (also called ecological niche models), that estimate the probability of occurrence of the species as a function of environmental predictors (e.g., climate, soil). In this Thesis some methodological improvements are proposed to contribute to a better predictive performance of such models, given the current data available in Spain and focusing in the application of the models to selection of species for ecological restoration. Fine grained species distribution data are required to train models to be used at the scale of the ecological restoration projects, but this kind of data are not always available for every species. On the other hand, coarse grained data are available for almost every species in Spain. A recalibration method is proposed that updates a coarse grained logistic regression model using a new fine grained updating sample. The method allows obtaining acceptable predictive performance with reasonably small updating sample (25 occurrences of the species), in contrast with the much larger samples (more than 100 occurrences) required for a conventional modeling approach that discards the coarse grained data. The choice of the statistical method may have a dramatic effect on model performance, therefore comparisons of methods have received much interest in the last decade. Previous studies have shown a poorer performance of the logistic regression compared to novel methods like maximum entropy models. The results of this Thesis show that the observed difference is caused by the fact that maximum entropy models include regularization techniques and the versions of logistic regression compared do not. Once regularization has been added to the logistic regression using a penalization procedure, the differences in model performance disappear. Therefore, penalized logistic regression may be considered one of the best performing methods to model species distributions. Usually, species distribution models do not consider soil related predictors because direct measurements of the chemical or physical properties are often lacking. The inclusion of coarse grained soil data from national or continental soil maps could be a reasonable alternative. The results of this Thesis suggest that the performance of the models slightly increase after including soil predictors form coarse grained soil maps. Model validation is a key stage of the development of empirical models, such as species distribution models. The usual way of validating is based on the evaluation of model performance for each species separately, i.e., comparing observed species presences or absence to predicted probabilities in a set of sites. This kind of evaluation is not informative for a common question in ecological restoration projects: which n species are the most suitable for the environment of the site to be restored? A method has been proposed to address this question that estimates the ability of a set of models to discriminate among present and absent species in a evaluation site. The method has been successfully applied to the validation of 188 species distribution models used to support decisions on species selection for ecological restoration in Spain. The proposed methodological approaches improve the predictive performance of the predictive models applied to species selection in ecological restoration and increase the number of species for which a model that supports decisions can be fitted.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La apertura de los mercados internacionales de capital como consecuencia del proceso de globalización ha motivado un aumento significativo de la labor investigadora en el campo de la economía y, concretamente, en la teoría de la inversión. Los trabajos en este área tuvieron como punto de partida el artículo publicado por Harry Markowitz en 1952 en el Journal of Finance bajo el título “Portfolio Selection”. En él se pretende hacer una modelización del proceso inversionista principalmente a través de dos criterios: riesgo y retorno. Markowitz no da indicaciones en cuanto a cómo elegir la composición de una cartera optimizando simultáneamente riesgo y retorno. En su lugar, fija una de las dos variables (según la aversión al riesgo del inversor y su preferencia por las ganancias) y optimiza la otra. Sin embargo, este análisis resulta ser bastante simplista si tenemos en cuenta que los inversores, como cualquier ser humano, son decisores multicriterio: no sólo maximizarán el beneficio para un riesgo dado, sino que intentarán también minimizar el riesgo, diversificar el tipo de acciones que poseen para inmunizarse frente a crisis financieras, emplear nuevos criterios de inversión que incorporen la sostenibilidad medioambiental y el impacto que la actividad productiva tiene en la sociedad, destinar un mayor porcentaje del presupuesto a compañías poco endeudadas, que alcancen un buen rating o unos buenos índices de responsabilidad social corporativa, etc. La inclusión de estas nuevas variables en el modelo tradicional es ahora posible gracias a la teoría de la decisión multicriterio (MCDM: Multiple Criteria Decision Making). Desde los años setenta se viene desarrollando y aplicando este nuevo paradigma en áreas tan dispares como la planificación de redes de telecomunicación, la optimización de listas de espera en hospitales o la planificación logística de las grandes distribuidoras y compañías de mensajería. En el presente trabajo se pretende aplicar el paradigma MCDM a la construcción de una cartera de acciones siguiendo criterios tanto puramente financieros como de sostenibilidad medioambiental y responsabilidad social corporativa. Para ello, en esta primera parte se estudiará la teoría clásica de selección de carteras de Markowitz, explicando los parámetros que permiten caracterizar un instrumento financiero individual (retorno, riesgo, covarianza) y una cartera de instrumentos (diversificación, frontera eficiente). En la segunda parte se analizará en profundidad el concepto de desarrollo sostenible, tan extendido en la actualidad, y su transposición al plano corporativo y de gestión de carteras. Se realizará una revisión histórica del término y su encaje en el esquema de decisión de una compañía privada, así como un estudio de las herramientas para medir el cumplimiento de ciertos principios de sostenibilidad por parte de las compañías y hacer, de esta forma, cuantificables dichos conceptos con vistas a su incorporación al esquema decisional del inversor. Con posterioridad, en la tercera parte se estudiará la programación por metas como técnica de decisión multicriterio para aplicar al problema de la composición de carteras. El potencial de esta metodología radica en que permite hacer resoluble un problema, en principio, sin solución. Y es que, como no se pueden optimizar todos y cada uno de los criterios simultáneamente, la programación por metas minimizará las desviaciones respecto a determinados niveles de aspiración para ofrecer una solución lo más cercana posible a la ideal. Finalmente, se construirá un caso de estudio a partir de datos reales tanto financieros como de sostenibilidad para, posteriormente, resolver el modelo matemático construido empleando LINGO. A través de esta herramienta software se podrá simular el proceso de optimización y obtener una cartera-solución que refleje las preferencias del agente decisor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se presenta un modelo mecánico que permite relacionar la microdureza de polímeros con la carga aplicada. Los resultados de las medidas experimentales realizadas sobre polietilenos de diferentes tipos se han ajustado al modelo y se discuten los coeficientes resultantes del ajuste. A partir de los valores de estos coeficientes se propone un criterio para la selección de la carga a aplicar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde la aparición de Internet, hace ya más de 20 años ha existido por parte de diversos sectores de la sociedad, científicos, empresas, usuarios, etc. la inquietud por la aplicación de esta tecnología a lo que se ha dado en llamar “El Internet de las Cosas”, que no es más que el control a distancia de cualquier elemento útil o necesario para la vida cotidiana y la industria. Sin embargo el desarrollo masivo de aplicaciones orientadas a esto, no ha evolucionado hasta que no se han producido avances importantes en dos campos: por un lado, en las Redes Inalámbricas de Sensores (WSN), redes compuestas por un conjunto de pequeños dispositivos capaces de transmitir la información que recogen, haciéndola llegar desde su propia red inalámbrica, a otras de amplia cobertura y por otro con la miniaturización cada vez mayor de dispositivos capaces de tener una autonomía suficiente como para procesar datos e interconectarse entre sí. Al igual que en las redes de ordenadores convencionales, las WSN se pueden ver comprometidas en lo que a seguridad se refiere, ya que la masiva implementación de estas redes hará que millones de Terabytes de datos, muchas veces comprometidos o sometidos a estrictas Leyes de protección de los mismos, circulen en la sociedad de la información, de forma que lo que nace como una ventaja muy interesante para sus usuarios, puede convertirse en una pesadilla debido a la amenaza constante hacia los servicios mínimos de seguridad que las compañías desarrolladoras han de garantizar a los usuarios de sus aplicaciones. Éstas, y con el objetivo de proveer un ámbito de seguridad mínimo, deben de realizar un minucioso estudio de la aplicación en particular que se quiere ofrecer con una WSN y también de las características específicas de la red ya que, al estar formadas por dispositivos prácticamente diminutos, pueden tener ciertas limitaciones en cuanto al tamaño de la batería, capacidad de procesamiento, memoria, etc. El presente proyecto desarrolla una aplicación, única, ya que en la actualidad no existe un software con similares características y que aporta un avance importante en dos campos principalmente: por un lado ayudará a los usuarios que deseen desplegar una aplicación en una red WSN a determinar de forma automática cuales son los mecanismos y servicios específicos de seguridad que se han de implementar en dicha red para esa aplicación concreta y, por otro lado proporcionará un apoyo extra a expertos de seguridad que estén investigando en la materia ya que, servirá de plataforma de pruebas para centralizar la información sobre seguridad que se tengan en ese momento en una base de conocimientos única, proporcionando también un método útil de prueba para posibles escenarios virtuales. ABSTRACT. It has been more than 20 years since the Internet appeared and with it, scientists, companies, users, etc. have been wanted to apply this technology to their environment which means to control remotely devices, which are useful for the industry or aspects of the daily life. However, the huge development of these applications oriented to that use, has not evolve till some important researches has been occurred in two fields: on one hand, the field of the Wireless Sensor Networks (WSN) which are networks composed of little devices that are able to transmit the information that they gather making it to pass through from their wireless network to other wider networks and on the other hand with the increase of the miniaturization of the devices which are able to work in autonomous mode so that to process data and connect to each other. WSN could be compromised in the matter of security as well as the conventional computer networks, due to the massive implementation of this kind of networks will cause that millions of Terabytes of data will be going around in the information society, thus what it is thought at first as an interesting advantage for people, could turn to be a nightmare because of the continuous threat to the minimal security services that developing companies must guarantee their applications users. These companies, and with the aim to provide a minimal security realm, they have to do a strict research about the application that they want to implement in one WSN and the specific characteristics of the network as they are made by tiny devices so that they could have certain limitations related to the battery, throughput, memory, etc. This project develops a unique application since, nowadays, there is not any software with similar characteristics and it will be really helpful in mainly two areas: on one side, it will help users who want to deploy an application in one WSN to determine in an automatically way, which ones security services and mechanisms are those which is necessary to implement in that network for the concrete application and, on the other side, it will provide an extra help for the security experts who are researching in wireless sensor network security so that ti will an exceptional platform in order to centralize information about security in the Wireless Sensor Networks in an exclusive knowledge base, providing at the same time a useful method to test virtual scenarios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El 29 de enero de 2000 Francisco Javier Sáenz de Oíza ofrece su última conferencia en el salón de actos del edificio sede del BBVA en el Paseo de la Castellana de Madrid. Esta conferencia inaugura el ciclo “El arquitecto enseña su obra”, organizado por el Colegio Oficial de Arquitectos de Madrid (C.O.A.M.) y la Escuela Técnica Superior de Arquitectura de Madrid (E.T.S.A.M.). Las obras en concreto que Oíza 'enseña' en este evento son Torres Blancas (Madrid, 1961- 1968) y Banco de Bilbao (Madrid, 1971-1980). Antes de la conferencia, blandiendo una carpeta, Oíza dice: Traigo aquí los textos de siempre, los que siempre he usado, (...) yo no he escrito ni una línea, solo he subrayado ciertos pasajes, en la medida de lo posible me gustaría leer alguno. Pero como aquí hay como para cinco horas, pues no se qué hacer. Citarlo sí, porque de ustedes el que quiera penetrar un poco en mi conocimiento, pues que vea las citas que yo hago aquí, qué pasajes, o qué libros o qué artículos propongo. 1 La carpeta que lleva Oíza en su mano contiene veinticuatro fichas mecanografiadas por él mismo. Las fichas son pasajes de textos; en su mayoría de textos literarios o poéticos, e incluyen una referencia bibliográfica que menciona: título de libro, edición y número de página. Además, en cada ficha están resaltados los pasajes que Oíza pretende leer. 2 Antes del comienzo de la conferencia Oíza dice: Tengo aquí citas de lecturas que le recomendaría a quien quiera enterarse de cómo es este edificio. 3 Durante la conferencia Oíza no parece hablar sobre las obras que debe enseñar; en cambio se dedica, casi exclusivamente, a leer en público. Esta tesis nace de lo sugerido por el propio Oíza. El objetivo general, siguiendo sus propias palabras, es 'penetrar un poco' en su conocimiento a partir de citas y recomendaciones de lecturas realizadas por él mismo al tratar sobre arquitectura. La hipótesis central plantea que por medio de sus lecturas Oíza sí habla de arquitectura, y sostiene también que a partir de sus textos es posible 'enterarse', al menos en parte, de cómo es un edificio, en particular Torres Blancas y Banco de Bilbao. Más aún, se plantea la hipótesis de que Oíza, maestro ágrafo y de carácter socrático, ha construido, no obstante, un 'discurso teórico' arquitectónico suficientemente sistemático. De modo que aún cuando Oíza no ha dejado una 'teoría' escrita es posible reconstruirla, en cierta medida, a partir de su elocución y a partir de la comprensión de sus 'lecturas'. Las fuentes primarias de esta tesis son: a) Las lecturas que Oíza recomienda en su conferencia de enero de 2000. b) Torres Blancas y Banco de Bilbao. c) Las lecturas en público realizadas por Oíza en conferencias, cursos, debates, mesas redondas, programas de TV, etc. El tema que se investiga es la relación entre los textos recomendados por Oíza y su arquitectura, y la pregunta guía de la investigación es cómo y en qué medida los textos pueden contribuir a la comprensión del pensamiento, del discurso y de la obra de Oíza. Torres Blancas y Banco de Bilbao son, en todo momento, las dos principales obras utilizadas para la observación y el contraste de los resultados de la investigación teórica en el desarrollo de la tesis. El soporte teórico y metodológico de la tesis está dado por la hermenéutica en tanto disciplina encargada de la interpretación y correcta comprensión de textos y obras, en particular por la filosofía hermenéutica de Hans-Georg Gadamer expuesta en Verdad y método. La relevancia, el aspecto original y la posible aportación al conocimiento de esta tesis consiste en una aproximación a Oíza y a su arquitectura, desde un punto de vista hasta ahora no investigado de forma sistemática, esto es, a partir de las lecturas de Oíza. ABSTRACT On 29th January 2000 Francisco Javier Sáenz de Oíza gave his last lecture in the Auditorium at BBVA headquarters located in Paseo de la Castellana avenue in Madrid. That lecture opened the series The Architect Shows his Work (El arquitecto enseña su obra) organised by the COAM Official College of Architects and the ETSAM Architecture School of Madrid. The specific works that Oíza 'shows' in his lecture were Torres Blancas (Madrid, 1961- 1968) and Banco de Bilbao (Madrid, 1971-1980). Before the lecture, waving a folder in his hand, Oíza says: I've got here the texts I've always used, (…) I haven't written a line, I've only underlined certain passages, I would like to read some of them to the extent possible. But I have here about five hours of reading, so I don't know what to do. I can cite them, yes, and anyone of you who want to delve a little into my knowledge can look at the citations I make here, the passages, books or articles I recommend. 1 The folder in Oíza's hand contains 24 files typed by the architect himself. The files consist of text passages -most of which are literary or poetry texts- and include the bibliographic citation with book the title, edition and page number. In addition, the passages Oíza intends to read are highlighted. Before starting his lecture Oíza says: I've got here citations of readings I'd recommend to those who want to realise how this building is. 2 During the lecture Oíza doesn't seem to be talking about the works he has to show, on the contrary, he focuses almost exclusively on reading texts to the audience. This thesis is the result of a suggestion made by Oíza himself. The broad aim is to 'delve a little into' his knowledge using citations and reading recommendations made by Oíza when dealing with the architecture subject. The main hypothesis proposes that Oíza talks about architecture through his readings and that starting from 'his' texts it is possible to 'realise', at least in part, how a building is, Torres Blancas and Banco de Bilbao in particular. Moreover, it is proposed the hypothesis that Oíza, as a Socratic teacher reluctant to write down his ideas, has nevertheless built a systematic 'theoretical discourse' on architecture. As a result, even when he has not written a 'theory', it is possible to reconstruct it to a certain degree, starting from his speech and from the understanding of his readings. The primary sources for this thesis are: a) The readings that Oíza recommends in his lecture of January 2000. b) The Torres Blancas and Banco de Bilbao. c) The readings done by Oíza in presentations, lectures, debates, panel discussions, television programmes, etc. The subject under research is the relationship between the texts that Oíza recommends and his architecture. The guiding question for the research is how and to what extent the texts can contribute to the understanding of Oíza's thoughts, discourse and work. Torres Blancas and Banco de Bilbao are the two main works considered along the thesis and they have been used for observation and to test the results of the theoretical research as it progresses. The thesis theoretical and methodological framework is based on the hermeneutics -as the discipline that deals with the interpretation and the correct understanding of texts and works-, in particular the hermeneutics philosophy of Hans-Georg Gadamer in Truth and Method. The relevance, the original element and the possible contribution of this thesis is given by the approach to Oíza and his architecture through Oíza's readings, a perspective that hasn't been yet systematically researched.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hasta hace relativamente poco tiempo, el bienestar de las vacas lecheras en las granjas de EE.UU. y U.E. se asumía como correcto. Sin embargo en los últimos años, con el considerable incremento de la productividad de las vacas y los cambios en el manejo, tamaño y estructura de las granjas, los estudiosos del bienestar han comenzado a expresar su seria preocupación al respecto en las vacas de alta producción y en sus terneros. Hoy día, los principales problemas de bienestar en el vacuno lechero se derivan de la mayor incidencia de mamitis y de problemas de pezuñas y de patas, de problemas reproductivos, de su incapacidad para mostrar comportamientos normales, de respuestas fisiológicas de emergencia que consumen recursos energéticos y de lesiones. Estos problemas de bienestar incluyen los originados por el entorno productivo (por ejemplo suelos deslizantes que provocan lesiones en patas, o suelos abrasivos que dañan las pezuñas) y por el manejo (falta de especialización de la mano de obra) y elevada rotación de ésta, que contribuye a una menor atención a la detección de enfermedades o síntomas de estrés), así como esquemas de selección dirigidos únicamente a mejorar los caracteres productivos. Todo ello ha provocado a que las modernas granjas lecheras tengan serios problemas de bienestar en sus animales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Basándose en la propuesta de Kaplan sobre la posibilidad de obtener conmutación biestable entre un campo homogéneo y otro inhomogéneo transmitidos a un semiespacio no lineal cuando una onda plana incide desde un semiespacio lineal, los autores desarrolla un método gráfico similar al que se utiliza en el estudio de BO en resonadores no lineales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El frente de un túnel puede colapsar si la presión aplicada sobre el es inferior a un valor limite denominado presión “critica” o “de colapso”. En este trabajo se desarrolla y presenta un mecanismo de rotura rotacional generado punto a punto para el cálculo de la presión de colapso del frente de túneles excavados en terrenos estratificados o en materiales que siguen un criterio de rotura nolineal. La solución propuesta es una solución de contorno superior en el marco del Análisis Límite y supone una generalización del mecanismo de rotura mas reciente existente en la bibliografía. La presencia de un terreno estratificado o con un criterio de rotura no-lineal implica una variabilidad espacial de las propiedades resistentes. Debido a esto, se generaliza el mecanismo desarrollado por Mollon et al. (2011b) para suelos, de tal forma que se puedan considerar valores locales del ángulo de rozamiento y de la cohesión. Además, la estratificación del terreno permite una rotura parcial del frente, por lo que se implementa esta posibilidad en el mecanismo, siendo la primera solución que emplea un mecanismo de rotura que se ajusta a la estratigrafía del terreno. Por otro lado, la presencia de un material con un criterio de rotura no-lineal exige introducir en el modelo, como variable de estudio, el estado tensional en el frente, el cual se somete al mismo proceso de optimización que las variables geométricas del mecanismo. Se emplea un modelo numérico 3D para validar las predicciones del mecanismo de Análisis Limite, demostrando que proporciona, con un esfuerzo computacional significativamente reducido, buenas predicciones de la presión critica, del tipo de rotura (global o parcial) en terrenos estratificados y de la geometría de fallo. El mecanismo validado se utiliza para realizar diferentes estudios paramétricos sobre la influencia de la estratigrafía en la presión de colapso. Igualmente, se emplea para elaborar cuadros de diseño de la presión de colapso para túneles ejecutados con tuneladora en macizos rocosos de mala calidad y para analizar la influencia en la estabilidad del frente del método constructivo. Asimismo, se lleva a cabo un estudio de fiabilidad de la estabilidad del frente de un túnel excavado en un macizo rocoso altamente fracturado. A partir de el se analiza como afectan las diferentes hipótesis acerca de los tipos de distribución y de las estructuras de correlación a los resultados de fiabilidad. Se investiga también la sensibilidad de los índices de fiabilidad a los cambios en las variables aleatorias, identificando las mas relevantes para el diseño. Por ultimo, se lleva a cabo un estudio experimental mediante un modelo de laboratorio a escala reducida. El modelo representa medio túnel, lo cual permite registrar el movimiento del material mediante una técnica de correlación de imágenes fotográficas. El ensayo se realiza con una arena seca y se controla por deformaciones mediante un pistón que simula el frente. Los resultados obtenidos se comparan con las estimaciones de la solución de Análisis Límite, obteniéndose un ajuste razonable, de acuerdo a la literatura, tanto en la geometría de rotura como en la presión de colapso. A tunnel face may collapse if the applied support pressure is lower than a limit value called the ‘critical’ or ‘collapse’ pressure. In this work, an advanced rotational failure mechanism generated ‘‘point-by-point” is developed to compute the collapse pressure for tunnel faces in layered (or stratified) grounds or in materials that follow a non-linear failure criterion. The proposed solution is an upper bound solution in the framework of limit analysis which extends the most advanced face failure mechanism in the literature. The excavation of the tunnel in a layered ground or in materials with a non-linear failure criterion may lead to a spatial variability of the strength properties. Because of this, the rotational mechanism recently proposed by Mollon et al. (2011b) for Mohr-Coulomb soils is generalized so that it can consider local values of the friction angle and of the cohesion. For layered soils, the mechanism needs to be extended to consider the possibility for partial collapse. The proposed methodology is the first solution with a partial collapse mechanism that can fit to the stratification. Similarly, the use of a nonlinear failure criterion introduces the need to introduce new parameters in the optimization problem to consider the distribution of normal stresses along the failure surface. A 3D numerical model is employed to validate the predictions of the limit analysis mechanism, demonstrating that it provides, with a significantly reduced computational effort, good predictions of critical pressure, of the type of collapse (global or partial) in layered soils, and of its geometry. The mechanism is then employed to conduct parametric studies of the influence of several geometrical and mechanical parameters on face stability of tunnels in layered soils. Similarly, the methodology has been further employed to develop simple design charts that provide the face collapse pressure of tunnels driven by TBM in low quality rock masses and to study the influence of the construction method. Finally, a reliability analysis of the stability of a tunnel face driven in a highly fractured rock mass is performed. The objective is to analyze how different assumptions about distributions types and correlation structures affect the reliability results. In addition, the sensitivity of the reliability index to changes in the random variables is studied, identifying the most relevant variables for engineering design. Finally, an experimental study is carried out using a small-scale laboratory model. The problem is modeled in half, cutting through the tunnel axis vertically, so that displacements of soil particles can be recorded by a digital image correlation technique. The tests were performed with dry sand and displacements are controlled by a piston that supports the soil. The results of the model are compared with the predictions of the Limit Analysis mechanism. A reasonable agreement, according to literature, is obtained between the shapes of the failure surfaces and between the collapse pressures observed in the model tests and computed with the analytical solution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Artículo de crítica de la arquitectura y la aplicación de ésta a la docencia de proyectos arquitectónicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Selección de la hélice más apropiada para un prototipo de aeronave eléctrica. Se utiliza la teoría del elemento finito de pala para elegir entre 79 geometrías de hélice.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto se ubica en la cooperativa vitivinícola de Nuestra Señora de la Paz, Villarta de San Juan (Ciudad Real), y la extensión de la transformación es 48,4 ha, incluyendo cepas de la variedad Airén y de la variedad Cencibel. La finalidad del proyecto es ejecutar un plan de actuación basado en la oferta de diferentes tipos de servicios relacionados con la sensórica a dicha cooperativa, con el fin de reducir los costes de los insumos, mejorar la productividad y reducir la presión hidrólogica del acuífero 23. Para ello, se han analizado las tecnologías disponibles actualmente en el mercado y posteriormente se ha realizado un meta-análisis de los datos bibliográficos relacionados con las tecnologías elegidas. Se ha optado por instalar en campo una red inalámbrica de sensores con una vida útil estimada de 5 años. Los datos obtenidos por la red se complementan con 3 vuelos durante el ciclo anual del cultivo con un dron, además de tomas de datos con un fluorómetro portátil, propiedad ambos de la empresa ofertante. Tras el procesamiento de los datos obtenidos, los cooperativistas reciben un informe semanal detallado vía correo electrónico. Se espera así que la cooperativa se instale en la zona como pionera de la viticultura de precisión, para en un futuro poder extender el uso de las nuevas tecnologías a otros agricultores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se han prospectado 41 de los 65 ayuntamientos de los que se disponía información sobre la existencia de cultivares de castaño en la comunidad gallega (FERNANDEZ y PEREIRA, 1981) . Se marcaron 350 clones correspondientes a 82 denominaciones varietales de castaño (Castanea sativa) de un total de 143 conocidas. Se introdujeron en Colección 195 clones (de los 350 marcados) correspondientes a un total de 75 denominaciones varietales. El rango de altitudes de selección fue desde los 140 a los 1.060 m sobre el nivel del mar. El 60,1 % de los árboles se han encontrado entre los 500 y 800 m.