786 resultados para Identificación del problema


Relevância:

90.00% 90.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo principal de este proyecto es la realización de un sistema, que permita a través de alguna herramienta accesible a cualquier usuario, poder interactuar con una base de datos que contenga un catálogo bien documentado de los objetos disponibles en el Museo Histórico de la Informática (MHI) perteneciente a la Escuela Técnica Superior de Ingenieros Informáticos (ETSIINF) de la Universidad Politécnica de Madrid (UPM). Hasta el momento, no existía inventario alguno, por lo que la contribución del trabajo que aquí se presenta, supone un gran avance en la organización de los fondos del Museo. Ello contribuirá al desarrollo del objetivo principal del MHI, que es la difusión de la historia de la informática, mediante un medio de los más usados hoy en día, internet. El trabajo realizado se presenta a lo largo de 10 capítulos. En los que se muestran, el análisis del problema, los requisitos y las distintas alternativas posibles de solución, así como la solución adoptada y su desarrollo, tanto en el diseño de la base de datos como de sitio Web que hace posible la visualización e interacción de la información. En el primer capítulo, se puede encontrar una breve introducción del proyecto. Se indican los objetivos, la motivación y el alcance del mismo. En el segundo capítulo, se muestran los requisitos del problema, se analizan las tecnologías, herramientas y lenguajes disponibles para diseñar bases de datos, y se propone la elección de una de las tecnologías, teniendo en cuenta las limitaciones del entorno en el cual se va a implantar la solución. En el tercer capítulo, se diseña la solución propuesta para el sistema. Primero se muestra el diseño de bajo nivel, que serán los cimientos y posteriormente se explica el diseño de alto nivel. Finalmente, se introduce el conjunto de pruebas que el sistema tendrá que pasar para garantizar su correcto funcionamiento. El cuarto capítulo, muestra todas las tecnologías, herramientas, lenguajes y plantillas utilizadas para la implementación de la WEB. Mientras que en el capítulo cinco, se pueden ver los resultados de las pruebas realizadas. En el capítulo seis, se evalúan los costes económicos de realización de proyecto y se presenta la agenda de actividades y tareas llevadas a cabo para su desarrollo. El séptimo capítulo, resume las contribuciones técnicas del proyecto tratadas en los capítulos anteriores, así como las conclusiones personales. Mientras que, el capítulo ocho, apunta una serie de trabajos futuros que se podrían realizarse utilizando como base este proyecto. El capítulo nueve contiene las referencias de la información que se han consultado y que se citan en el texto, y el décimo complementa este proceso de información, incluyendo un glosario de términos técnicos. El contenido de la memoria concluye con el manual de usuario para la administración de la base de datos, que se incluye en forma de anexo.---ABSTRACT---The main goal of this project is the development of a system that would allow through some accessible tool for any user to interact with a database that contains a well-documented objects available in the Computer History Museum's (MHI) catalog, which belongs to the School of Computer Engineers (ETSIINF) of the Polytechnic University of Madrid (UPM). So far, there was no inventory, so the contribution of the work presented here, is a breakthrough in the organization of the Museum's collections. This will contribute to the development of the main goal of the MHI, which is the diffusion of computer history, by means of the most used today, internet. The work is presented along 10 chapters. Which show the analysis of the problem, requirements, the different possible solutions and the solution adopted and its development, both in the design of the database and Web site, which enables the visualization and interaction of the information. In the first chapter, a brief introduction of the project is found. Objectives, motivation and scope of the project are specified. In the second chapter, the requirements of the problem are shown. Technologies, tools and languages available to design databases are analysed, and the choice of a technology is proposed, taking into account the limitations of the environment in which it will to implement the solution. In the third chapter, the proposed system solution is designed. First, low-level design, which will be the foundation of the project, is shown, and then the high-level design is explained. Finally, test suite, which the system will have to past to ensure their proper functioning, are introduced. The fourth chapter shows all technologies, tools, languages and templates used to implement the WEB. While in chapter five, the results of the tests are shown. The economic costs of development the project are evaluated in chapter six, and the schedule of activities and tasks carried out for this development are shown. The seventh chapter summarizes the technical contributions of the project discussed in previous chapters, as well as personal conclusions. While the eighth chapter, suggests future works that could be made, based on this project. Ninth chapter contains references to information that have been consulted and cited in the text, and the tenth chapter includes a glossary of technical terms, to complement that process of information. Finally an annex includes a user manual for managing the database.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La idea de aportar a la vivienda en altura las cualidades de la casa patio, se ha estudiado durante años. Podemos decir que el origen de este análisis se inició en 1922 cuando Le Corbusier empezó a investigar a cerca de los Inmuebles Villa; sin duda sabemos que ha llegado hasta la actualidad. Ayudado por la labor de búsqueda de diferentes arquitectos a lo largo de la historia, podemos afirmar que todos los casos conforman una idea única de proyecto. La idea de agrupar casas patio en altura manteniendo las características propias de este tipo de viviendas, privacidad, espacio libre, apertura cenital, comunicación interior‐exterior… Los Inmuebles‐Villa serán repetidamente aludidos, citados o retomados como un tipo paradigmático entre las propuestas de agrupaciones de casas patio en altura. Si pensamos en el concepto tradicional de patio, denominarlo como un espacio de viviendas apiladas en altura no parece una elección adecuada, no obstante la noción de patio permite una gran cantidad de asociaciones. Su valor radica en el traslado de una idea conocida a un nuevo contexto, produciendo así una reformulación del problema. Elegimos para este proceso, la vivienda colectiva, entendiendo la colectividad como agrupación, pues es esta agrupación de vivienda la encargada de crear ciudad; así no sólo vale la pena dar importancia a una célula con su independencia, sino en la relación que estas establecen con sus semejantes. De ahí la idea de que esa colectividad de casas patio, pueda darse también en vertical, buscando las condiciones antes mencionadas. Un deseo que apareció en el Movimiento Moderno y que desde ese momento ha sido algo anhelado por la arquitectura hasta nuestros días. El patio se presenta en la mayoría de las ocasiones como un espacio con múltiples afecciones, desde el patio que aporta a la vivienda una zona de esparcimiento hasta un espacio destinado a la ventilación, aunque en definitiva, podemos decir que consiste en un espacio capaz de contener un lugar. Quizás por eso aparece de diversas formas en nuestra arquitectura, sin importar su ubicación o forma. Simplemente un espacio que aporta al interior unas características que esas viviendas nunca alcanzarían sin él. Por eso lo que conocemos como casa patio es un tipo de arquitectura que se extiende hasta la antigüedad. Ese concepto de espacio exterior incorporado a la vivienda es una de las piezas fundamentales en nuestra arquitectura. Una idea ampliamente estudiada que deja a un lado los diferentes tipos de “patio” que fueron apareciendo, así como las múltiples funciones que dichos espacios fueron capaces de llevar a cabo, primando en definitiva la forma en la que cambiaron la idea de habitar. A lo largo de este análisis se han ido hallando evidencias de los múltiples mecanismos empleados en los casos estudiados. Como se ha visto, en ellos aparecen características que únicamente pueden aparecer en un espacio exterior cuando se trata de un patio. Los patios estudiados se consideran patios tradicionales, independientemente de la cota a la que se encuentren, aunque no cumplan alguna de las características a priori necesarias para la definición de patio. Para captar la esencia de esos espacios, no es necesario traspasar sus límites, ya que ésta se irradia al interior e invade la atmósfera de los espacios contiguos. Se plantea como objetivo principal rastrear las huellas de una investigación proyectual que Le Corbusier inaugura y deja abierta; se trata de descubrir qué ecos, qué rebotes, qué repercusiones tiene el concepto de patio en altura a lo largo de su historia. En esta búsqueda de identificación de las características de estos espacios, hemos seleccionado tres casos, partiendo de las experiencias tanto en patios tradicionales como en patios en altura de tres maestros como son Le Corbusier, José Luis Sert y Charles Correa. Los casos estudiados podrían haber sido muchos más. Este número supone solo un ejemplo de un universo mayor, que ha sido operativo para el desarrollo de este trabajo. Ellos nos guiarán por su arquitectura para intentar resolver la idea de los patios en altura. Hemos analizado las influencias proyectuales existentes entre algunos de los casos que forman parte de esta reflexión, entre los que existen unos vínculos claros, que pueden ser esas claves que estamos buscando para resolver la agrupación de casa patio en altura. A través de este trabajo se ha puesto de manifiesto que la aplicación del concepto de casas patio en altura depende tanto de su ubicación, del clima y la cultura local, como el tipo de patio del que se parte. De estos conceptos surgen soluciones diferentes entre ellas y por tanto no pueden extrapolarse una sola idea a todos los casos. Algunas ideas están presentes durante toda la investigación: fachadas como resultado de la repetición de células, sucesión de espacios, plantas de casas patio tradicional, dobles alturas…Otros casos destacan por su singularidad, por haber buscado la solución del problema mediante la originalidad. En definitiva buscamos casas patio en altura. Y si esta tesis contribuye, en alguna medida, a obtener las claves para que esta tipología edificatoria funcione, de sus características, sus necesidades, y su resultado, es decir, de su búsqueda de ese deseo moderno que presentábamos al principio, será entonces que esa tipología ilusoria, sea una arquitectura real, y por lo tanto también podrá llevarse a cabo y dejar de ser un deseo para convertirse en realidad. Sera que el deseo moderno se ha cumplido. ABSTRACT The idea of giving housing the height of the patio housing qualities, it has been studied for ages. It can be said that the origin of this analysis was started in 1922, when Le Cobustier began investigating about The Villa Building: obviously it is known nowadays due to different architect’s labor of searching through the history. It’s easy to say that all the cases shape a single project idea , the idea of gathering patio houses with the same height keeping the inner characteristics of traditional patio houses such privacy, free space, zenithal opening, inside –outside communication…etc. If we thought about the traditional concept of patio, to define it, in the case of gathering because of the height, it is not suitable to consider it like a pile of houses with the same height. Nevertheless the concept of patio allows a wide variety of settlements. Its worth is based on the transference of a renowned idea into a new context, producing thus a reformulation of the problem. The patio is frequently disposed like a zone with multiple utilities, from the leisure zone patio to an air circulating space, definitively it can be said that it consists on a space which is able to content a place. Maybe that is why it appears in various forms in our architecture, regardless of its placement or shape. It is simply a space which provides many features which are impossible to reach without it. That is what we know as patio house is a type of architecture which is spread till antiquity. This concept of outdoors space joined housing is one of the main pieces of our architecture. It is an idea wide analyses which lefts aside the different types of patios which were developed, focusing mainly the way they changed the idea of inhabiting. We have chosen for this analysis process, the collective housing, we understood collective like group, thus it is the group of housing responsible to built up a city, not just it is worth to give importance to an independent cell, in addition to the relation which those ones can stablish with their similar ones. Due to the idea of collectivity of patio houses, it can be also developed in vertical, looking for the previously mention condition. A wish which appeared with the modern movement and since then it has been something desired by architecture just nowadays. It is understood as the main target to follow the trail about a project investigation which was begun and left open by Le Cobustier: the task is discovering the resonances, the bounces and repercussions which belong to the patio concept in height through its history. In this quest to distinguish the characteristics of these spaces, we have chosen three cases, starting from the experiences as traditional patios as in the height of patios of the masters such as Le Cobustier, Jose Luis Sert and Charles Correa. The studied cases could be even more. This number is just an example of a huger universe, which has been operational for the developing of this work. We will be managed through their architecture trying to solve the idea of patios according to their height. Over this analysis evidences there are found multiple mechanics used in the studied cases. As we could see later, in these ones there are characteristics which are only found in an outdoors space when it is a patio. The studied patios are considered traditional patios, independently of the level they have, although they do not fit at first some of the necessary characteristics included in a patio definition. To catch the essence of those spaces, it is not necessary to go through its limits, since it is transmitted to the interior and pervades the adjoining spaces. It has been analyzed the project influences exiting among several cases which build up part of this consideration , among them there are some clear links, which may be these keys we are looking for to solve the joint of patio houses in height. With this work it has been highlighted that the application of the patios houses in height concept depends not only on its placement, the weather and the local culture, but also on the type of patio we are using. From these considerations different solutions were given by themselves as consequence they can be extrapolated into a single idea for all the cases. Some ideas are present along the complete investigation: facades resulting from cells repetition, series of spaces, traditional patio house floor, double height… Some other cases stand out due to it singularity, because they have searched for a solution to the problem by means of originality. To sum up, we look for patio houses in height. And if this thesis contributes, in some way, to get the clues to make work this type of building, about its characteristics, its necessities and its result, in other words, its searching of this modern desire that we showed at the beginning, then this imaginary typo will be a real architecture therefore it can also come truth and can abandon the form of wish to became into a reality. So the modern desire has been fulfilled.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Contexto: La presente tesis doctoral se enmarca en la actividad de educción de los requisitos. La educción de requisitos es generalmente aceptada como una de las actividades más importantes dentro del proceso de Ingeniería de Requisitos, y tiene un impacto directo en la calidad del software. Es una actividad donde la comunicación entre los involucrados (analistas, clientes, usuarios) es primordial. La efectividad y eficacia del analista en la compresión de las necesidades de clientes y usuarios es un factor crítico para el éxito del desarrollo de software. La literatura se ha centrado principalmente en estudiar y comprender un conjunto específico de capacidades o habilidades personales que debe poseer el analista para realizar de forma efectiva la actividad de educción. Sin embargo, existen muy pocos trabajos que han estudiado dichas capacidades o habilidades empíricamente. Objetivo: La presente investigación tiene por objetivo estudiar el efecto de la experiencia, el conocimiento acerca del dominio y la titulación académica que poseen los analistas en la efectividad del proceso de educción de los requisitos, durante los primeros contactos del analista con el cliente. Método de Investigación: Hemos ejecutado 8 estudios empíricos entre cuasi-experimentos (4) y experimentos controlados (4). Un total de 110 sujetos experimentales han participado en los estudios, entre estudiantes de post-grado de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid y profesionales. La tarea experimental consistió en realizar sesiones de educción de requisitos sobre uno o más dominios de problemas (de carácter conocido y desconocido para los sujetos). Las sesiones de educción se realizaron empleando la entrevista abierta. Finalizada la entrevista, los sujetos reportaron por escrito toda la información adquirida. Resultados: Para dominios desconocidos, la experiencia (entrevistas, requisitos, desarrollo y profesional) del analista no influye en su efectividad. En dominios conocidos, la experiencia en entrevistas (r = 0.34, p-valor = 0.080) y la experiencia en requisitos (r = 0.22, p-valor = 0.279), ejercen un efecto positivo. Esto es, los analistas con más años de experiencia en entrevistas y/o requisitos tienden a alcanzar mejores efectividades. Por el contrario, la experiencia en desarrollo (r = -0.06, p-valor = 0.765) y la experiencia profesional (r = -0.35, p-valor = 0.077), tienden a ejercer un efecto nulo y negativo, respectivamente. En lo que respecta al conocimiento acerca del dominio del problema que poseen los analistas, ejerce un moderado efecto positivo (r=0.31), estadísticamente significativo (p-valor = 0.029) en la efectividad de la actividad de educción. Esto es, los analistas con conocimiento tienden a ser más efectivos en los dominios de problema conocidos. En lo que respecta a la titulación académica, por falta de diversidad en las titulaciones académicas de los sujetos experimentales no es posible alcanzar una conclusión. Hemos podido explorar el efecto de la titulación académica en sólo dos cuasi-experimentos, sin embargo, nuestros resultados arrojan efectos contradictorios (r = 0.694, p-valor = 0.51 y r = -0.266, p-valor = 0.383). Además de las variables estudiadas indicadas anteriormente, hemos confirmado la existencia de variables moderadoras que afectan a la actividad de educción, tales como el entrevistado o la formación. Nuestros datos experimentales confirman que el entrevistado es un factor clave en la actividad de educción. Estadísticamente ejerce una influencia significativa en la efectividad de los analistas (p-valor= 0.000). La diferencia entre entrevistar a uno u otro entrevistado, en unidades naturales, varía entre un 18% - 23% en efectividad. Por otro lado, la formación en requisitos aumenta considerablemente la efectividad de los analistas. Los sujetos que realizaron la educción de requisitos después de recibir una formación específica en requisitos tienden a ser entre un 12% y 20% más efectivos que aquellos que no la recibieron. El efecto es significativo (p-valor = 0.000). Finalmente, hemos observado tres hechos que podrían influir en los resultados de esta investigación. En primer lugar, la efectividad de los analistas es diferencial dependiendo del tipo de elemento del dominio. En dominios conocidos, los analistas con experiencia tienden a adquirir más conceptos que los analistas noveles. En los dominios desconocidos, son los procesos los que se adquieren de forma prominente. En segundo lugar, los analistas llegan a una especie de “techo de cristal” que no les permite adquirir más información. Es decir, el analista sólo reconoce (parte de) los elementos del dominio del problema mencionado. Este hecho se observa tanto en el dominio de problema desconocido como en el conocido, y parece estar relacionado con el modo en que los analistas exploran el dominio del problema. En tercer lugar, aunque los años de experiencia no parecen predecir cuán efectivo será un analista, sí parecen asegurar que un analista con cierta experiencia, en general, tendrá una efectividad mínima que será superior a la efectividad mínima de los analistas con menos experiencia. Conclusiones: Los resultados obtenidos muestran que en dominios desconocidos, la experiencia por sí misma no determina la efectividad de los analistas de requisitos. En dominios conocidos, la efectividad de los analistas se ve influenciada por su experiencia en entrevistas y requisitos, aunque sólo parcialmente. Otras variables influyen en la efectividad de los analistas, como podrían ser las habilidades débiles. El conocimiento del dominio del problema por parte del analista ejerce un efecto positivo en la efectividad de los analistas, e interacciona positivamente con la experiencia incrementando aún más la efectividad de los analistas. Si bien no fue posible obtener conclusiones sólidas respecto al efecto de la titulación académica, si parece claro que la formación específica en requisitos ejerce una importante influencia positiva en la efectividad de los analistas. Finalmente, el analista no es el único factor relevante en la actividad de educción. Los clientes/usuarios (entrevistados) también juegan un rol importante en el proceso de generación de información. ABSTRACT Context: This PhD dissertation addresses requirements elicitation activity. Requirements elicitation is generally acknowledged as one of the most important activities of the requirements process, having a direct impact in the software quality. It is an activity where the communication among stakeholders (analysts, customers, users) is paramount. The analyst’s ability to effectively understand customers/users’ needs represents a critical factor for the success of software development. The literature has focused on studying and comprehending a specific set of personal skills that the analyst must have to perform requirements elicitation effectively. However, few studies have explored those skills from an empirical viewpoint. Goal: This research aims to study the effects of experience, domain knowledge and academic qualifications on the analysts’ effectiveness when performing requirements elicitation, during the first stages of analyst-customer interaction. Research method: We have conducted eight empirical studies, quasi-experiments (four) and controlled experiments (four). 110 experimental subjects participated, including: graduate students with the Escuela Técnica Superior de Ingenieros Informáticos of the Universidad Politécnica de Madrid, as well as researchers and professionals. The experimental tasks consisted in elicitation sessions about one or several problem domains (ignorant and/or aware for the subjects). Elicitation sessions were conducted using unstructured interviews. After each interview, the subjects reported in written all collected information. Results: In ignorant domains, the analyst’s experience (interviews, requirements, development and professional) does not influence her effectiveness. In aware domains, interviewing experience (r = 0.34, p-value = 0.080) and requirements experience (r = 0.22, p-value = 0.279), make a positive effect, i.e.: the analysts with more years of interviewing/requirements experience tend to achieve higher effectiveness. On the other hand, development experience (r = -0.06, p-value = 0.765) and professional experience (r = -0.35, p-value = 0.077) tend to make a null and negative effect, respectively. On what regards the analyst’s problem domain knowledge, it makes a modest positive effect (r=0.31), statistically significant (p-value = 0.029) on the effectiveness of the elicitation activity, i.e.: the analysts with tend to be more effective in problem domains they are aware of. On what regards academic qualification, due to the lack of diversity in the subjects’ academic degrees, we cannot come to a conclusion. We have been able to explore the effect of academic qualifications in two experiments; however, our results show opposed effects (r = 0.694, p-value = 0.51 y r = -0.266, p-value = 0.383). Besides the variables mentioned above, we have confirmed the existence of moderator variables influencing the elicitation activity, such as the interviewee and the training. Our data confirm that the interviewee is a key factor in the elicitation activity; it makes statistically significant effect on analysts’ effectiveness (p-value = 0.000). Interviewing one or another interviewee represents a difference in effectiveness of 18% - 23%, in natural units. On the other hand, requirements training increases to a large extent the analysts’ effectiveness. Those subjects who performed requirements elicitation after specific training tend to be 12% - 20% more effective than those who did not receive training. The effect is statistically significant (p-value = 0.000). Finally, we have observed three phenomena that could have an influence on the results of this research. First, the analysts’ effectiveness differs depending on domain element types. In aware domains, experienced analysts tend to capture more concepts than novices. In ignorant domains, processes are identified more frequently. Second, analysts get to a “glass ceiling” that prevents them to acquire more information, i.e.: analysts only identify (part of) the elements of the problem domain. This fact can be observed in both the ignorant and aware domains. Third, experience years do not look like a good predictor of how effective an analyst will be; however, they seem to guarantee that an analyst with some experience years will have a higher minimum effectiveness than the minimum effectiveness of analysts with fewer experience years. Conclusions: Our results point out that experience alone does not explain analysts’ effectiveness in ignorant domains. In aware domains, analysts’ effectiveness is influenced the experience in interviews and requirements, albeit partially. Other variables influence analysts’ effectiveness, e.g.: soft skills. The analysts’ problem domain knowledge makes a positive effect in analysts’ effectiveness; it positively interacts with the experience, increasing even further analysts’ effectiveness. Although we could not obtain solid conclusions on the effect of the academic qualifications, it is plain clear that specific requirements training makes a rather positive effect on analysts’ effectiveness. Finally, the analyst is not the only relevant factor in the elicitation activity. The customers/users (interviewees) play also an important role in the information generation process.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La evaluación de las prestaciones de las embarcaciones a vela ha constituido un objetivo para ingenieros navales y marinos desde los principios de la historia de la navegación. El conocimiento acerca de estas prestaciones, ha crecido desde la identificación de los factores clave relacionados con ellas(eslora, estabilidad, desplazamiento y superficie vélica), a una comprensión más completa de las complejas fuerzas y acoplamientos involucrados en el equilibrio. Junto con este conocimiento, la aparición de los ordenadores ha hecho posible llevar a cabo estas tareas de una forma sistemática. Esto incluye el cálculo detallado de fuerzas, pero también, el uso de estas fuerzas junto con la descripción de una embarcación a vela para la predicción de su comportamiento y, finalmente, sus prestaciones. Esta investigación tiene como objetivo proporcionar una definición global y abierta de un conjunto de modelos y reglas para describir y analizar este comportamiento. Esto se lleva a cabo sin aplicar restricciones en cuanto al tipo de barco o cálculo, sino de una forma generalizada, de modo que sea posible resolver cualquier situación, tanto estacionaria como en el dominio del tiempo. Para ello se comienza con una definición básica de los factores que condicionan el comportamiento de una embarcación a vela. A continuación se proporciona una metodología para gestionar el uso de datos de diferentes orígenes para el cálculo de fuerzas, siempre con el la solución del problema como objetivo. Esta última parte se plasma en un programa de ordenador, PASim, cuyo propósito es evaluar las prestaciones de diferentes ti pos de embarcaciones a vela en un amplio rango de condiciones. Varios ejemplos presentan diferentes usos de PASim con el objetivo de ilustrar algunos de los aspectos discutidos a lo largo de la definición del problema y su solución . Finalmente, se presenta una estructura global de cara a proporcionar una representación virtual de la embarcación real, en la cual, no solo e l comportamiento sino también su manejo, son cercanos a la experiencia de los navegantes en el mundo real. Esta estructura global se propone como el núcleo (un motor de software) de un simulador físico para el que se proporciona una especificación básica. ABSTRACT The assessment of the performance of sailing yachts, and ships in general, has been an objective for naval architects and sailors since the beginning of the history of navigation. The knowledge has grown from identifying the key factors that influence performance(length, stability, displacement and sail area), to a much more complete understanding of the complex forces and couplings involved in the equilibrium. Along with this knowledge, the advent of computers has made it possible to perform the associated tasks in a systematic way. This includes the detailed calculation of forces, but also the use of those forces, along with the description of a sailing yacht, to predict its behavior, and ultimately, its performance. The aim of this investigation is to provide a global and open definition of a set of models and rules to describe and analyze the behavior of a sailing yacht. This is done without applying any restriction to the type of yacht or calculation, but rather in a generalized way, capable of solving any possible situation, whether it is in a steady state or in the time domain. First, the basic definition of the factors that condition the behavior of a sailing yacht is given. Then, a methodology is provided to assist with the use of data from different origins for the calculation of forces, always aiming towards the solution of the problem. This last part is implemented as a computational tool, PASim, intended to assess the performance of different types of sailing yachts in a wide range of conditions. Several examples then present different uses of PASim, as a way to illustrate some of the aspects discussed throughout the definition of the problem and its solution. Finally, a global structure is presented to provide a general virtual representation of the real yacht, in which not only the behavior, but also its handling is close to the experience of the sailors in the real world. This global structure is proposed as the core (a software engine) of a physical yacht simulator, for which a basic specification is provided.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabajo se ocupa de la construcción modular ligera de viviendas unifamiliares, más concretamente aborda el problema de la definición constructiva de las mismas, habida cuenta de lo poco conocido y publicado de este aspecto en particular. Dado que la construcción es fruto de la evolución, resulta de gran importancia el estudio de los antecedentes para comprender la situación actual, por ello para documentar como corresponde el estado de la técnica y de la investigación se estudiaron los antecedentes desde sus primeras manifestaciones a finales del siglo XIX hasta nuestros días. Contrariamente a las profecías de Le Corbusier y otros, la industrialización no ha llegado a la construcción ni en la forma ni en la medida que era de esperar a principios del siglo XX. Sin embargo y a pesar del relativo “fracaso” de la industrialización en convertirse en la forma mayoritaria de producir edificios, lo cierto es que algunos sistemas altamente industrializados, como lo es la construcción modular ligera, han logrado un lugar en el mercado, que en algunos países resulta cuanto menos significativo. Delimitar el estado de la técnica y la situación actual es crucial en este trabajo, toda vez que la construcción industrializada la realizan empresas, y situarse al margen de las mismas y de su producción, nos guste o no, resulta contrario al sentido común. De este modo se han identificado y documentado ejemplos como el de EE.UU. y Japón, entre otros, que resultan muy ilustrativos tanto desde la evolución como del estado actual. Del estado de la técnica y la investigación también resulta la escasez de publicación de detalles constructivos específicos de la construcción modular ligera. Es obvio que los fabricantes intentan blindarse mediante el secreto industrial, logrando que las soluciones constructivas más interesantes queden fuertemente protegidas dentro del conocimiento reservado de la empresa. De este modo un sistema que alcanza grados de prefabricación del 95%, tan atractivo e interesante para el arquitecto queda reservado al conocimiento de unos pocos dentro de las empresas. La búsqueda de mayor información sobre estos sistemas encuentra un filón indiscutible en los proyectos de las casas del concurso Solar Decathlon. En efecto, debido a las condiciones particulares de este concurso, las casas que compiten deben ser instaladas en un plazo corto, por lo que en su mayoría recurren al método de construcción modular ligera, para lograr correctamente este objetivo. Adicionalmente todos los planos de proyecto incluidos los de detalle, así como memorias de especificaciones técnicas, quedan colgadas en la Web, a libre disposición del público. De este modo se ha considerado interesante, conveniente y útil, aprovechar como fuente documental de este trabajo, aparte de lo obtenido en el estado de la técnica y la investigación, los proyectos de las casas de los concursos 2005 y 2007, que fueron las dos últimas ediciones celebradas cuando se inició esta tesis. De modo similar a esta carencia de detalles publicados se observa igualmente una falta de investigación y de metodologías adecuadas a la misma sobre soluciones y detalles constructivos propios de la construcción modular ligera. Por eso y ante la dificultad de manejar adecuadamente una información disponible pero farragosa, este trabajo ha dedicado una parte importante de su esfuerzo a la creación de una metodología adecuada a este tipo de situación. Hay que destacar que cada proyecto puede constar fácilmente de 60 a casi 200 planos, sin contar las memorias técnicas y otros documentos, tales como galerías de imágenes, etc. Por otra parte resulta útil establecer esta metodología, no solo para esta tesis, sino para futuros trabajos de investigación sobre el tema, toda vez que con posterioridad a 2007 se han celebrado nuevas ediciones del concurso con su correspondiente volumen de información disponible. La metodología del análisis de los proyectos se basa en el diseño y creación de siete fichas tipo que resumen los aspectos fundamentales del proyecto desde el punto de vista constructivo, permitiendo de este modo su rápida visualización y comprensión sin pretender exhaustividad, ya que en caso de querer profundizar en el detalle de la información siempre está el proyecto original para ello. Tras estudiar la información obtenida de los proyectos de las casas de concurso, se contrastan y discuten los resultados para obtener conocimientos de interés para el objetivo propuesto en la tesis. Se comparan los resultados procedentes del estado de la técnica y de la investigación y se obtienen las conclusiones correspondientes. De este modo ha sido posible identificar una serie de criterios técnicos de proyecto de viviendas unifamiliares realizadas mediante construcción modular ligera, que además se organizan en varios niveles, por lo que el resultado es un conjunto de criterios como germen de una futura guía o manual. Como conclusiones fundamentales de la tesis hay que destacar las metodológicas, que habilitan la extensión de este estudio a otros trabajos y la aportación original al conocimiento con la definición de una serie de criterios técnicos de proyecto de viviendas realizadas mediante construcción modular ligera, que además de mejorar esta parte del saber constructivo serán de gran ayuda a los arquitectos de cara a la reducción de errores, que a menudo derivan en mayores costes y plazos, cuando no directamente al abandono del sistema constructivo. El trabajo de la tesis se estructura en siete capítulos a saber: Capítulo 1: Introducción, donde se explica el tema de la tesis, el objetivo principal, las limitaciones y se aportan algunas definiciones. Capítulo 2: Estado de la técnica y la investigación, dentro del cual se presentan los antecedentes desde sus inicios pasando por la primera y segunda mitad del siglo XX y finalizando con el estado actual que recorre los sistemas de EE.UU, Japón, Europa, Escandinavia, centro Europa, Francia, España y algunos ejemplos de Latinoamérica. En el estado de la investigación se presentan las publicaciones tanto en revistas científicas indexadas en el JCR, como publicaciones no indexadas en las que se muestran artículos científicos, comunicaciones a congresos, documentación sobre el concurso Solar Decathlon, libros específicos y libros genéricos sobre construcción modular ligera, tesis doctorales tanto generales como específicas sobre el concurso Solar Decathlon, documentos de idoneidad técnica, páginas Web del concurso Solar Decathlon y finalmente páginas Web de empresas de construcción modular ligera y patentes. También se expresan las conclusiones parciales del capítulo así también como la justificación y los objetivos particulares. Capítulo 3: Metodología, se expone en primer lugar el planteamiento del problema, para luego desarrollar los métodos utilizados para el estudio y clasificación del transporte y de la organización modular, la relación entre la organización modular y distribución espacial, el diseño y contenido de las fichas resumen de los 38 proyectos presentados al SD2005 y SD2007, así también como la información consultada para su realización. Se explica asimismo como se realizaron las tablas comparativas partiendo de la información de las fichas. Finalmente se expresa la manera en que se trató el estudio particular de la junta entre módulos. Capítulo 4: Discusión de resultados, dónde en primer lugar se presenta la clasificación y las estrategias del transporte así también como una clasificación de la organización modular, en segundo lugar se estudian las relaciones que existen entre el sistema modular y la organización espacial. A partir de aquí se muestra el estudio de la estructura de todas las casas del SD2005 y SD2007, según el tipo y material de las zapatas, mostrando tanto tablas cuantitativas como tablas gráficas con fotos. De la misma manera se tratan los forjados, los pilares y las vigas y las cubiertas. Se estudia además el cerramiento opaco y acristalado, la cubierta y el forjado según las capas que lo componen. En el caso de las instalaciones se estudian las que son especiales, descartando las normales en este tipo de casas, como son los paneles fotovoltaicos, placas térmicas o tubos de vacío y los sistemas de almacenamiento de energía, como las baterías, presentando tablas numéricas y gráficas con fotos. El transporte se analiza según corresponda al traslado de la vivienda o al transporte de apoyo, según el tipo y la cantidad utilizado. Con respecto al montaje se diferencia en si se usó grúa o no, y en el caso de no utilizarse se muestran los métodos alternativos. Con respecto a la exploración de la organización modular se presentan la cantidad de módulos que utilizó cada casa, así como también la cuantificación de los sistemas híbridos como son elementos lineales 1D, paneles 2D. Por último se muestra el estudio detallado de la junta entre módulos 3D. Finalmente se realiza la propuesta de un conjunto de criterios técnicos de proyecto organizado en cuatro niveles: 1º nivel de criterios generales, 2º nivel sobre sistemas constructivos, 3º nivel de detalles constructivos y el 4º nivel llamado logística obras previas, transporte y montaje. Capítulo 5: Conclusiones y líneas futuras de investigación, se exponen las conclusiones generales, metodológicas, documentales y por último las de construcción modular. Finalmente se realiza una propuesta de líneas futuras de investigación. Capítulo 6: Bibliografía. Capítulo 7: Anexos, en el que se presentan todas las fichas resumen de las casas realizadas por el autor de esta tesis. Además se incluyen los casos concretos de Voisin en Francia y la TVA (Tennessee Valley Authority) en EE.UU., así como referencias de manuales genéricos de construcción ligera, medidas de transporte en España e información sobre estadísticas de viviendas en la Unión Europea. ABSTRACT This paper deals with Light Modular Construction of houses, and specifically addresses the problem of the constructive definition of the same, given how little known and published this subject has been. Since building construction is the result of evolution, it is of great importance to study its background for understanding the current situation, therefore to document the state of the art and research, its history was studied from its origins dating to the end nineteenth century to our days. Contrary to the prophecies of Le Corbusier and others, industrialization has not reached the construction neither in the form nor to the extent that it was expected in the early twentieth century. However, despite the relative "failure" of industrialization to become the major form of production for buildings, the fact is that some highly industrialized systems, such as the so called Lightweight Modular Construction, have achieved a place in the market, which in some countries is at least significant. To outline the state of the art and the current situation is crucial in this work, since industrialized construction is carried out by companies, and to step away from them and their production, whether we like it or not, it is contrary to common sense. So that, several cases have been identified and documented, such as the US and Japan examples, among others, which are very illustrative both from evolution and the current status. The state of the art and research shows also a shortage of publication of specific construction details of light modular construction. Obviously, manufacturers try to shield themselves by trade secret, making the most interesting constructive solutions remain heavily protected within the reserved knowledge of the company, so a system that reaches levels of 95% prefabrication, so attractive and interesting for the architect It is reserved to the knowledge of a few people inside the companies. The search for more information on these systems finds an invaluable reef in the projects of the Solar Decathlon houses. Indeed, due to the particular conditions of this contest, houses competing must be installed in a short time, so mostly turn to modular construction methods for this purpose to achieve properly this goal. Additionally all levels of project, including detailed and technical specifications reports are published on the Web, freely available to the general public. Thus it was considered interesting, convenient and useful to take advantage as a documentary source of this work, apart from what it were obtained in the state of the art and research, the projects of the houses of the 2005 and 2007 contests, which were the last two editions already held before this thesis was started. Similar to this lack of published details it is also observed a lack of research and methodologies adapted to the solutions and construction details of lightweight modular construction. So that, and facing the difficulty of adequately manage the available but bulky information, this work has devoted a significant part of its effort to create an appropriate methodology for this type of situation. It is noteworthy that each project can easily consist of 60 to almost 200 blueprints, not including technical reports and other documents, such as photo galleries, etc. The methodology of the analysis of the projects is based on the design and creation of seven record sheets that summarize key aspects of the project from a construction point of view, thus allowing quick watching and understanding of the project, without claiming completeness, always keeping for further information the blueprints themselves. After studying the information obtained from the projects of the competition houses, the results are compared and discussed to obtain relevant knowledge according to the objective proposed in the thesis. The results from the state of the art and research are also compared and the conclusions so obtained make possible to identify a number of technical design criteria for single family homes made using lightweight modular construction, which also have been organized at various levels, so the result is a set of criteria as a seed for a future guide or manual. Among the main conclusions of the thesis must be noted the methodological ones, that enable the extension of this study to other works and are an original contribution to knowledge with the definition of a number of technical criteria for housing projects made by light modular construction, what in addition to improving this part of the constructive knowledge will be of great help for the architects to reduce errors that often result in higher costs and delays, if not in abandonment of the construction system itself. The work of the thesis is divided into seven chapters as follows: Chapter 1: Introduction, where the topic of the thesis, the main objective, limitations and the provided definitions is explained. Chapter 2: State of the art and research, within which history is presented from the beginning through the first and second half of the twentieth century and ending with the current systems, that spans from the USA to Japan, Europe, Scandinavia, Central Europe, France, Spain and some Latin American examples. In the state of research publications are presented both on scientific journals indexed in the JCR, and non-indexed publications in which scientific articles, conference papers, information about the Solar Decathlon competition, generic and specific books on light modular construction, articles both general and specific on the Solar Decathlon competition, technical approval documents, dissertations, the Solar Decathlon Web pages and finally lightweight modular construction companies Web pages and patents. The partial conclusions of the chapter as well as the rationale and specific objectives are also expressed. Chapter 3: Methodology first of all exposes the problem statement and then develops the methods used for the study and classification of transportation and modular organization, the relationship between the modular organization and spatial distribution, design and content summary records of the 38 projects submitted to the SD2005 and SD2007, as well as information consulted for its realization. It explains equally how the comparative tables based on information from the chips were made. Finally, the way the particular study of the joint between modules is carried out is also treated. Chapter 4: Discussion, first sorting a classification of transport strategies as well as of modular organization, secondly the relationship between the modular system and the spatial organization studied is presented. From then on, the study of the structure of every house Moreover, to establish this methodology is useful not only for this thesis, but for future research on the subject, since after 2007 there have been held new editions of the contest with a corresponding volume of information available. shown in the SD2005 and SD2007 contests, depending on the type and material of the shoe, showing both quantitative tables as graphic boards with pictures is carried out. Similarly slabs, columns and beams and roofs are treated. Furthermore, the opaque and transparent façades, as well as roof and floor enclosure, according to the layers that compose them are studied. In the case of facilities there have been only addressed that which are of a special type, discarding that considered usual in this type of houses such as photovoltaic panels, thermal panels or vacuum tubes and energy storage systems such as batteries, presenting numerical and graphical tables with photos .The transportation is analyzed depending on it is used to move the house or for additional support, depending on the type and quantity of items used. Regarding assembly it has been made a difference if crane is or not used and if not, what the alternative methods are. With respect to the exploration of the modular organization, the amount of modules used in each house is presented, as well as the quantification of hybrid systems such as linear members as well as 1D, 2D panels. Finally, it has been carried out the detailed study of the joint between 3D modules. Finally it is proposed a set of technical criteria organized into four levels, 1st level of general criteria, 2nd level on building systems, 3rd level construction details and 4th level called previous works and logistics, transportation and assembly. Chapter 5: Conclusions and future research, where general, methodological, documentary and finally modular construction findings are presented. A proposal for further research is done. Chapter 6: Bibliography. Chapter 7: Annexes, in which all the record sheets of houses made by the author of this thesis are presented. Besides the specific cases of Voisin in France and TVA (Tennessee Valley Authority) in the USA, as well as general reference manuals on lightweight construction, transportation dimensions in Spain, and information on housing statistics in the European Union are included.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Comunicación presentada en el X Congreso Internacional de la Asociación Española de Historia Económica (AEHE), Carmona (Sevilla), 8-9 septiembre 2011.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El trabajo analiza los principales determinantes y las características de la desnutrición en América Latina durante la segunda mitad del siglo XX. En primer lugar, se explican las bases del problema moderno del hambre y la desnutrición, tanto en su dimensión fisiológica como social, al destacarse su condición de calamidad social y de expresión biológica del subdesarrollo y de las desigualdades sociales. En segundo lugar, a partir de testimonios contemporáneos, se exponen las principales características de la desnutrición que ha afectado a la población iberoamericana, y las causas que la explican. Por último, a modo de conclusión, se subrayan las consecuencias negativas de no haber aprovechado la oportunidad que conllevaba el reto de superar los factores condicionantes de la malnutrición por defecto, y haber finalizado el siglo XX con un panorama epidemiológico nutricional donde los problemas del hambre y la desnutrición conviven con fenómenos como los de la obesidad de la pobreza.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La hibridación entre especies es un fenómeno ampliamente extendido que puede tener consecuencias en la conservación de la biodiversidad. En el presente artículo se hace una revisión del problema de conservación derivado de la suelta de codornices de granja en poblaciones silvestres de codorniz común (Coturnix coturnix). Estas codornices de granja han resultado ser híbridos de codorniz común y codorniz japonesa (Coturnix japonica). Si no existen mecanismos de aislamiento reproductor, estas sueltas favorecerían la introgresión de genes de codorniz japonesa en las poblaciones de codorniz común; ello conllevaría que se produjera un “enjambre de híbridos” y la sedentarización de las poblaciones de codorniz, lo que comportaría muy probablemente su disminución en Europa. Esta amenaza es real, al haberse demostrado que no hay mecanismos de aislamiento reproductor, ni pre-cigóticos, ni post-cigóticos, ni ecológicos. Sin embargo, datos empíricos sugieren que a pesar de ello no se produce el temido “enjambre de híbridos”, sugiriéndose una mortalidad diferencial entre las dos especies como una posible explicación. Finalmente, se sugieren algunas medidas de gestión derivadas de la situación actual, entre las que destacaría un control genético que certifique el origen de los individuos criados en granja y la prohibición de efectuar sueltas de codornices japonesas o híbridos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta memoria para optar al grado de doctor por la Universidad de Alicante, en el área de Matemática Aplicada, se divide en ocho capítulos. En los cuatro primeros se lleva a cabo una revisión del problema de la rotación de la Tierra rígida y elástica, en formalismo hamiltoniano, y se introducen algunas alternativas originales a la construcción de ciertos elementos de la teoría. En los otros cuatro se presentan nuevas contribuciones al estudio analítico de los movimientos de precesión y nutación de la Tierra deformable. Estas se pueden agrupar en dos categorías: la obtención de fórmulas que describen el movimiento de rotación del eje de figura, que completan las existentes hasta la fecha, y la extensión del formalismo para hacerlo compatible con modelos reológicos de la Tierra más generales.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La literatura sobre ingeniería del software contiene numerosas propuestas para sistematizar las operaciones de diseño y ayudar en la toma de decisiones relacionadas con las soluciones a los problemas. Este artículo propone un marco conceptual para justificar la técnica de arriba hacia abajo que se sigue en el diseño tecnológico. El punto de partida es el enunciado de un problema en su versión de conjetura inicial, esto es, una hipótesis, y consta de una fase inicial que es esencialmente del ámbito del problema, y una segunda fase que es esencialmente del dominio de la solución. La fase del dominio del problema aborda una técnica para expresar el enunciado del problema con formato de una definición correcta y exacta, contextualizada en un dominio de referencia que es un modelo del problema y basada en una estructura sintáctica preestablecida. Esta fase produce una especificación formal del problema con formato de una expresión lógica o matemática que refiere el problema a un modelo y que denota, desde un enfoque externo al problema, los objetivos que se persigue que la solución satisfaga. La fase del dominio de la solución obtiene una especificación estructural de una solución al problema, que consiste en un árbol descriptor de la jerarquía de los módulos que componen la estructura y un grafo de las relaciones entre módulos, es decir, de la organización de los módulos. El fundamento del proceso de tomar decisiones de arriba hacia abajo consiste en clasificar las acciones que conforman el método de diseño y en establecer una ordenación entre las clases de acciones encontradas. Se propone un caso de estudio sencillo para poner de relieve el alcance de esta propuesta.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El cambio climático está alterando el comportamiento de los ciclos hídricos en diferentes partes del planeta y amenaza con fuertes repercusiones en la vida de muchas especies, incluida la humana. Sobran evidencias de que el estilo de vida y las formas productivas de la sociedad actual, principalmente de los países desarrollados, están contribuyendo a acelerar el cambio climático, posiblemente hasta niveles que rebasarían la capacidad de asimilación de la biota del planeta. Ante las alarmantes evidencias del problema ambiental en general y del problema hídrico en particular se han iniciado gestiones encaminadas a disminuir en lo posible las causas humanas. Pero la distribución de responsabilidades todavía entraña serios inconvenientes tanto a nivel internacional, como regional y local; uno de los desafíos es determinar el valor económico de los recursos afectados, como referencia para establecer compensaciones, prioridades, planes de gestión y también contribuciones por parte de los mismos beneficiarios de los recursos hídricos. En el presente estudio se ha analizado la situación particular de riesgo para un páramo andino, el Parque Nacional Cajas, fuente de agua que, potabilizada por una empresa estatal, cubre los requerimientos de la ciudad de Cuenca, en Ecuador. Con base en la teoría actual, el método de valor contingente resulta ser, si no el óptimo, uno de los más adecuados para estos casos. Mediante una muestra de familias usuarias del servicio y aplicando el modelo dicotómico de doble límite, se estableció en 3,44 USD el valor económico promedio asignado por las familias encuestadas. Los estadísticos de precisión dieron la razón en buena medida a las predicciones de Hanemann et al., y el valor resultante, comparado con el obtenido en otros países en desarrollo, presentó correlaciones altas con los PIB per cápita respectivos. Pese a haberse procedido canónicamente, en este estudio se planteó la hipótesis de que la DAP no mide el real valor económico del bien cuando se trata de un monopolio estatal, y se constató que el 91% de los encuestados, aunque con claras manifestaciones de disconformidad, finalmente se resignaron a pagar valores mayores al máximo DAP que declararon previamente, con lo cual se falsea este último como medida del valor económico, al menos en la perspectiva de la teoría utilitarista.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Las fórmulas basadas en la teoría de la elasticidad son ampliamente utilizadas para el cálculo de asientos de cimentaciones, ya que la totalidad de la normativa geotécnica recomienda su empleo. No obstante, estos métodos no cubren todas las situaciones geotécnicamente posibles ya que frecuentemente las condiciones geológicas son complejas. En este trabajo se analiza la influencia de la presencia de una capa rígida inclinada en los asientos elásticos de una cimentación superficial. Para ello se han resuelto 273 modelos tridimensionales no lineales de elementos finitos, variando los parámetros clave del problema: la inclinación y la profundidad de la capa rígida y la rigidez de la cimentación. Finalmente, se ha realizado un análisis estadístico de los resultados de los modelos y se ha propuesto una fórmula que puede ser utilizada en el cálculo de asientos por métodos elásticos, para tener en consideración la presencia de una capa rígida inclinada en profundidad.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La diagnostica strutturale è un campo in continuo sviluppo e attualmente sono numerosi gli studi tendenti alla definizione di tecniche e metodi in grado di fornire parametri che possano identificare, in modo sempre più accurato, lo stato di sicurezza di una struttura. Stato di sicurezza è un termine globale che si riferisce alla capacità portante di una struttura e alla sua resistenza alle sollecitazioni esterne, siano esse statiche o dinamiche. Per tanto, un qualsiasi danneggiamento strutturale potrebbe in varia misura influenzare tale stato. Per quanto riguarda i ponti stradali, negli ultimi anni l’attenzione è stata focalizzata allo studio di metodi di individuazione del danno a partire dai risultati ottenuti dal monitoraggio delle vibrazioni mediante accelerometri. Questo è stato possibile grazie agli avanzamenti raggiunti nell’identificazione modale e nei sensori per il monitoraggio strutturale. Questo lavoro si pone come obiettivo quello di proporre una nuova metodologia di analisi dei dati ottenuti da indagini sperimentali che possono essere svolte in sito. La definizione di tale metodologia è affidata a simulazioni numeriche volte a rappresentare stati di danneggiamento avanzati su elementi strutturali. In una prima fase verranno analizzati elementi semplificati rappresentativi di strutture esistenti, come ad esempio travi da ponte in calcestruzzo armato. In una seconda fase, il metodo verrà testato su modelli più complessi che tengano conto della tridimensionalità del problema, oltre alle variazioni sezionali e di materiali degli elementi che lo compongono.