1000 resultados para Límite al infinito
Resumo:
Las obras de Jorge Luis Borges y Ramón Gómez de la Serna, tan dispares entre sí, fueron unificadas y sintetizadas por medio del emblema del cristal en el ensayo "Exactitud" (Seis propuestas para el próximo milenio) de Italo Calvino. El objetivo aquí es profundizar lo que en el ensayo de Calvino es una sugerencia para, enseguida, evaluar cuáles son los cambios y las implicaciones críticas de esta nueva mirada para el campo de la literatura comparada. Al elegir un símbolo plástico-literario, que conciliaría regularidad espacial, fuerte noción estética, limpidez y claridad, Calvino subsume la importancia del estudio de las fuentes e influencias, del contacto entre los escritores y sus lecturas recíprocas, de las diferencias y determinaciones nacionales, del valor que ocupan en la literatura universal y de las analogías, de las ideas de parentesco y de filiación en un modo de observación común entre ciertos escritores. Modo de observación preciso, aunque múltiple; finito, aunque con vistas al infinito, con predilección por las formas geométricas, las simetrías, series, combinaciones, proporciones numéricas. El contraste de las obras no se daría directamente, sino por una especie de triángulo que se reporta a ellas y al emblema del cristal. Parte de esta lectura triangular es ejemplificada en los libros Historia universal de la infamia de Borges y Doña Juana la loca, Superhistoria de Ramón Gómez de la Serna
Resumo:
Las obras de Jorge Luis Borges y Ramón Gómez de la Serna, tan dispares entre sí, fueron unificadas y sintetizadas por medio del emblema del cristal en el ensayo "Exactitud" (Seis propuestas para el próximo milenio) de Italo Calvino. El objetivo aquí es profundizar lo que en el ensayo de Calvino es una sugerencia para, enseguida, evaluar cuáles son los cambios y las implicaciones críticas de esta nueva mirada para el campo de la literatura comparada. Al elegir un símbolo plástico-literario, que conciliaría regularidad espacial, fuerte noción estética, limpidez y claridad, Calvino subsume la importancia del estudio de las fuentes e influencias, del contacto entre los escritores y sus lecturas recíprocas, de las diferencias y determinaciones nacionales, del valor que ocupan en la literatura universal y de las analogías, de las ideas de parentesco y de filiación en un modo de observación común entre ciertos escritores. Modo de observación preciso, aunque múltiple; finito, aunque con vistas al infinito, con predilección por las formas geométricas, las simetrías, series, combinaciones, proporciones numéricas. El contraste de las obras no se daría directamente, sino por una especie de triángulo que se reporta a ellas y al emblema del cristal. Parte de esta lectura triangular es ejemplificada en los libros Historia universal de la infamia de Borges y Doña Juana la loca, Superhistoria de Ramón Gómez de la Serna
Resumo:
Las obras de Jorge Luis Borges y Ramón Gómez de la Serna, tan dispares entre sí, fueron unificadas y sintetizadas por medio del emblema del cristal en el ensayo "Exactitud" (Seis propuestas para el próximo milenio) de Italo Calvino. El objetivo aquí es profundizar lo que en el ensayo de Calvino es una sugerencia para, enseguida, evaluar cuáles son los cambios y las implicaciones críticas de esta nueva mirada para el campo de la literatura comparada. Al elegir un símbolo plástico-literario, que conciliaría regularidad espacial, fuerte noción estética, limpidez y claridad, Calvino subsume la importancia del estudio de las fuentes e influencias, del contacto entre los escritores y sus lecturas recíprocas, de las diferencias y determinaciones nacionales, del valor que ocupan en la literatura universal y de las analogías, de las ideas de parentesco y de filiación en un modo de observación común entre ciertos escritores. Modo de observación preciso, aunque múltiple; finito, aunque con vistas al infinito, con predilección por las formas geométricas, las simetrías, series, combinaciones, proporciones numéricas. El contraste de las obras no se daría directamente, sino por una especie de triángulo que se reporta a ellas y al emblema del cristal. Parte de esta lectura triangular es ejemplificada en los libros Historia universal de la infamia de Borges y Doña Juana la loca, Superhistoria de Ramón Gómez de la Serna
Resumo:
Separated transitional boundary layers appear on key aeronautical processes such as the flow around wings or turbomachinery blades. The aim of this thesis is the study of these flows in representative scenarios of technological applications, gaining knowledge about phenomenology and physical processes that occur there and, developing a simple model for scaling them. To achieve this goal, experimental measurements have been carried out in a low speed facility, ensuring the flow homogeneity and a low disturbances level such that unwanted transitional mechanisms are avoided. The studied boundary layers have been developed on a flat plate, by imposing a pressure gradient by means of contoured walls. They generate an initial acceleration region followed by a deceleration zone. The initial region is designed to obtain at the beginning of the deceleration the Blasius profile, characterized by its momentum thickness, and an edge boundary layer velocity, defining the problem characteristic velocity. The deceleration region is designed to obtain a linear evolution of the edge velocity, thereby defining the characteristic length of the problem. Several experimental techniques, both intrusive (hot wire anemometry, total pressure probes) as nonintrusive (PIV and LDV anemometry, high-speed filming), have been used in order to take advantage of each of them and allow cross-validation of the results. Once the boundary layer at the deceleration beginning has been characterized, ensuring the desired integral parameters and level of disturbance, the evolution of the laminar boundary layer up to the point of separation is studied. It has been compared with integral methods, and numerical simulations. In view of the results a new model for this evolution is proposed. Downstream from the separation, the flow near to the wall is configured as a shear layer that encloses low momentum recirculating fluid. The region where the shear layer remains laminar tends to be positioned to compensate the adverse pressure gradient associated with the imposed deceleration. Under these conditions, the momentum thickness remains almost constant. This laminar shear layer region extends up to where transitional phenomena appear, extension that scales with the momentum thickness at separation. These transitional phenomena are of inviscid type, similar to those found in free shear layers. The transitional region analysis begins with a study of the disturbances evolution in the linear growth region and the comparison of experimental results with a numerical model based on Linear Stability Theory for parallel flows and with data from other authors. The results’ coalescence for both the disturbances growth and the excited frequencies is stated. For the transition final stages the vorticity concentration into vortex blobs is found, analogously to what happens in free shear layers. Unlike these, the presence of the wall and the pressure gradient make the large scale structures to move towards the wall and quickly disappear under certain circumstances. In these cases, the recirculating flow is confined into a closed region saying the bubble is closed or the boundary layer reattaches. From the reattachment point, the fluid shows a configuration in the vicinity of the wall traditionally considered as turbulent. It has been observed that existing integral methods for turbulent boundary layers do not fit well to the experimental results, due to these methods being valid only for fully developed turbulent flow. Nevertheless, it has been found that downstream from the reattachment point the velocity profiles are self-similar, and a model has been proposed for the evolution of the integral parameters of the boundary layer in this region. Finally, the phenomenon known as bubble burst is analyzed. It has been checked the validity of existing models in literature and a new one is proposed. This phenomenon is blamed to the inability of the large scale structures formed after the transition to overcome with the adverse pressure gradient, move towards the wall and close the bubble. El estudio de capas límites transicionales con separación es de gran relevancia en distintas aplicaciones tecnológicas. Particularmente, en tecnología aeronáutica, aparecen en procesos claves, tales como el flujo alrededor de alas o álabes de turbomaquinaria. El objetivo de esta tesis es el estudio de estos flujos en situaciones representativas de las aplicaciones tecnológicas, ganando por un lado conocimiento sobre la fenomenología y los procesos físicos que aparecen y, por otra parte, desarrollando un modelo sencillo para el escalado de los mismos. Para conseguir este objetivo se han realizado ensayos en una instalación experimental de baja velocidad específicamente diseñada para asegurar un flujo homogéneo y con bajo nivel de perturbaciones, de modo que se evita el disparo de mecanismos transicionales no deseados. La capa límite bajo estudio se ha desarrollado sobre una placa plana, imponiendo un gradiente de presión a la misma por medio de paredes de geometría especificada. éstas generan una región inicial de aceleración seguida de una zona de deceleración. La región inicial se diseña para tener en al inicio de la deceleración un perfil de capa límite de Blasius, caracterizado por su espesor de cantidad de movimiento, y una cierta velocidad externa a la capa límite que se considera la velocidad característica del problema. La región de deceleración está concebida para que la variación de la velocidad externa a la capa límite sea lineal, definiendo de esta forma una longitud característica del problema. Los ensayos se han realizado explotando varias técnicas experimentales, tanto intrusivas (anemometría de hilo caliente, sondas de presión total) como no intrusivas (anemometrías láser y PIV, filmación de alta velocidad), de cara a aprovechar las ventajas de cada una de ellas y permitir validación cruzada de resultados entre las mismas. Caracterizada la capa límite al comienzo de la deceleración, y garantizados los parámetros integrales y niveles de perturbación deseados se procede al estudio de la zona de deceleración. Se presenta en la tesis un análisis de la evolución de la capa límite laminar desde el inicio de la misma hasta el punto de separación, comparando con métodos integrales, simulaciones numéricas, y proponiendo un nuevo modelo para esta evolución. Aguas abajo de la separación, el flujo en las proximidades de la pared se configura como una capa de cortadura que encierra una región de fluido recirculatorio de baja cantidad de movimiento. Se ha caracterizado la región en que dicha capa de cortadura permanece laminar, encontrando que se posiciona de modo que compensa el gradiente adverso de presión asociado a la deceleración de la corriente. En estas condiciones, el espesor de cantidad de movimiento permanece prácticamente constante y esta capa de cortadura laminar se extiende hasta que los fenómenos transicionales aparecen. Estos fenómenos son de tipo no viscoso, similares a los que aparecen en una capa de cortadura libre. El análisis de la región transicional comienza con un estudio de la evolución de las vii viii RESUMEN perturbaciones en la zona de crecimiento lineal de las mismas y la comparación de los resultados experimentales con un modelo numérico y con datos de otros autores. La coalescencia de los resultados tanto para el crecimiento de las perturbaciones como para las frecuencias excitadas queda demostrada. Para los estadios finales de la transición se observa la concentración de la vorticidad en torbellinos, de modo análogo a lo que ocurre en capas de cortadura libres. A diferencia de estas, la presencia de la pared y del gradiente de presión hace que, bajo ciertas condiciones, la gran escala se desplace hacia la pared y desaparezca rápidamente. En este caso el flujo recirculatorio queda confinado en una región cerrada y se habla de cierre de la burbuja o readherencia de la capa límite. A partir del punto de readherencia se tiene una configuración fluida en las proximidades de la pared que tradicionalmente se ha considerado turbulenta. Se ha observado que los métodos integrales existentes para capas límites turbulentas no ajustan bien a las medidas experimentales realizadas, hecho imputable a que no se obtiene en dicha región un flujo turbulento plenamente desarrollado. Se ha encontrado, sin embargo, que pasado el punto de readherencia los perfiles de velocidad próximos a la pared son autosemejantes entre sí y se ha propuesto un modelo para la evolución de los parámetros integrales de la capa límite en esta región. Finalmente, el fenómeno conocido como “estallido” de la burbuja se ha analizado. Se ha comprobado la validez de los modelos existentes en la literatura y se propone uno nuevo. Este fenómeno se achaca a la incapacidad de la gran estructura formada tras la transición para vencer el gradiente adverso de presión, desplazarse hacia la pared y cerrar la burbuja.
Resumo:
En capítulos anteriores se han tratado problemas dinámicos de sistemas con un solo grado de libertad y los correspondientes a un número cualquiera de grados. La estructura discreta y contínua (previamente discretizada) se llegaba a definir como sistema dinámico por sus matrices de masa, de rigidez y de amortiguamiento. Por diversos métodos se obtenía la respuesta del sistema a cualquier solicitación de cargas variables de modo determinado (periódico o no) o probabilístico en el tiempo, con lo que quedaba resuelto el problema dinámico. Ahora vamos a referirnos a estructuras continuas. En realidad puede abordarse su estudio como caso límite al discretizar la estructura en un número muy elevado de elementos de tamaños cada vez más reducidos. Dentro de las estructuras que llamamos artificiales en nuestro capítulo primero podríamos considerar las definidas geométricamente en una dimensión (lineales), dos dimensiones (superficiales)o tres (especiales). Claro que aún así definida una estructura, por ejemplo una cuerda o una viga puede tener movimientos en un plano o sea con componentes en otra dimensión que la que sirvió para definirla, e incluso con movimientos especiales como sería una viga sometida a movimientos de flexión y torsión. Del mismo modo en una estructura superficial o definida en dos dimensiones pueden considerarse los movimientos en su plano o en su superficie o fuera de él (normal o no a su superficie media). Como estructuras artificiales son de interés las siguientes: cuerdas, barras, vigas (rectas, curvas, continuas, flotantes, etc. ), sistemas reticulares, (de barras rectas, curvas, de sección variable, etc.), membranas, cáscaras, placas (rectas o curvas), etc. sometidas a esfuerzos originados por sus pesos propios y por las acciones de fuerzas y deformaciones exteriores, variables en el tiempo delmodo más diverso. Las estructuras naturales tienen sus características especiales, sus respuestas a determinadas solicitaciones. Hay que estudiarlas para llegar a conocer: a) Su comportamiento antes y después de ser alteradas o modificadas porel hombre; b) Sus interacciones con las estructuras artificiales que sirven para cumplimentarlas o reforzarlas.
Resumo:
La Auditoría Sociolaboral en el campo de los recursos humanos es una de las asignaturas pendientes a la que tendrán que enfrentarse muchas de nuestras empresas y organizaciones en un futuro. Teóricamente, ya hemos superado aquello de que los recursos humanos son la clave del éxito de la compañía, de hecho cada vez son más los que le consideran como un factor estratégico. Pero, en la práctica, son muy pocas las organizaciones que han dado un paso adelante y desarrollan sistemas que permitan el estudio sistemático de toda la problemática que encierra el empleo del factor humano en las mismas. Las razones de este hecho las podríamos encontrar en que todavía se sigue haciendo un excesivo énfasis en los problemas económicos frente a los organizacionales y humanos, pero también podría ser fruto de un profundo desconocimiento de lo que es la Auditoría Sociolaboral, de la problemática que conlleva y de su utilidad y beneficios derivados de la aplicación de la misma. La gestión de los Recursos Humanos en las organizaciones en general y en la empresa en particular, ha ido adaptándose a las nuevas estructuras económicas y a los nuevos tiempos, demostrando cumplir con la morfogénesis necesaria para la convivencia con las organizaciones dado su evolución de cambio en el tiempo. La Auditoría Sociolaboral es una parcela emergente que en este momento cuenta con pocos estudios especializados. El concepto general relativo a la auditoría responde a la necesidad de dar transparencia y veracidad a una situación actual de la organización, y lo que hay que dejar claro es que lo que no garantiza es su continuidad en el tiempo ni realiza predicciones de futuro, por lo que nos podemos preguntar ¿cuál es el valor añadido que confiere cualquier tipo de auditoría realizada a la organización?. Una auditoría refleja la situación actual de la organización mediante la realización de pruebas en el momento actual y el estudio de los acontecimientos pasados, por tanto verifica una situación actual y no realiza ningún tipo de predicción sobre el futuro. Y por otro lado tenemos que tener presente que la responsabilidad del auditor no es otra que transmitir la imagen fiel en un determinado momento de una organización, pero jamás va a ser el responsable del diseño del sistema de control interno ni de los procedimientos, políticas y medios utilizados por la organización, ya que de llegar a realizarlo estaría ejerciendo la dirección de la organización o una consultoría sociolaboral y sería, por naturaleza, incompatible para realizar la auditoría de la organización. ¿Qué aporta la auditoría sociolaboral a la organización? Por un lado aporta la realidad actual de la organización, que servirá de punto de apoyo a la dirección de la organización para la toma de decisiones estratégicas, y aporta la comunicación de todas las debilidades (significativas o no significativas) encontradas en el transcurso de realización de la auditoría, debilidades que darán lugar a recomendaciones de arreglo de las deficiencias y debilidades de la organización, pero que en ningún momento serán las medidas a tomar por la organización para corregir dichas debilidades, estas medidas han de ser decididas por el órgano de dirección de la organización que, en definitiva, es la responsable de los recursos humanos. El auditor siempre ha de ser autónomo de la organización que audita, no pudiendo dicha organización imponer ningún límite al trabajo del auditor ni influir en su opinión profesional. De igual forma el auditor no puede ser el responsable del diseño del sistema de control interno ni de los procedimientos, políticas y medios utilizados por la organización, ya que se estaría autoauditando, lo que es un sin sentido. La auditoría bajo ningún concepto ha de interpretarse como un asesoramiento o consultoría que imponga las medidas a tomar para garantizar la buena marcha en un futuro, sino que por el contrario es una actividad censora que refleja, para bien o para mal, la realidad de una organización en un momento determinado, y en el supuesto de llegar más allá de la mera censura, entonces dejaría de ser una actividad de auditoría para pasar a ser una actividad de consultoría o asesoría por lo que el resultado de la misma no tendría nunca efectos frente a terceros. Tenemos que tener presente que la auditoría ha evolucionado en el tiempo por lo que su definición ha ido progresando según la necesidad de transparencia de las organizaciones. De esta evolución podemos observar como el primer interés por la auditoría fue el de la auditoría económica o censura de cuentas, evolucionando hacia la necesidad de rendir cuentas a los propietarios no empresarios dueños de las empresas y a los que hay que explicar que ha pasado con su inversión. Pero no queda aquí la evolución de la auditoría sino que avanza aún más y ya no solo se conforma con rendir cuentas a los propietarios no empresarios, sino también a los terceros como pueden ser entidades financieras, inversores, proveedores o clientes, entre otros, a los que le interesa la información que emite la empresa y de la que necesita un sello de transparencia y sobretodo fiabilidad de dicha información. Y debido a esta necesidad del sello de transparencia y fiabilidad de la información sociolaboral de la empresa, la auditoría ha de realizase bajo el amparo de normas de actuación de general aceptación y reconocimiento de tal manera que la congruencia del informe de auditoría promueva la credibilidad en el mercado de la información sociolaboral transmitida por las empresas.
Resumo:
El estudio de la teoría sobre de las cuádricas con Geometría Proyectiva, aplicando conceptos, definiciones, y teoremas fundamentales, los cuales nos llevan a comprender la importancia de su aplicación en las diferentes ramas de la matemática y sus representaciones gráficas. Es por ello que en este trabajo se trata de desarrollar temas que están enfocados a comprender las cuádricas con geometría proyectiva y su importancia. Se desarrollará la noción de proyección, donde se dan definiciones importantes sobre la proyección, así como una descripción de que sucede si se agregan los puntos ideales o puntos al infinito, y que estos sean los centros de proyección, además el enriquecimiento que aportan estos nuevos conceptos. Se desarrollarán los conceptos de coordenadas homogéneas, que es fundamental para la comprensión de los puntos ideales o puntos al infinito, que facilitarán el manejo algebraico en el estudio del espacio proyectivo, el cual también incluye puntos complejos, así como la representación del espacio en diferentes dimensiones, y cambio de estructura de coordenadas, subespacios, hiperplanos y dualidad. Los más importantes teoremas de la Geometría Euclidiana, desarrollado con la Geometría Proyectiva, que es el Teorema de Desargues, y algunos resultados importantes adicionales. También se hará una introducción a proyectividades, razón cruzada, y transformaciones lineales. Se refleja la riqueza que tienen las cuádricas aplicando los conceptos de la geometría proyectiva, así como sus diferentes representaciones. Es importante mencionar que en el pasado el ser humano se ha visto favorecido por tales representaciones, facilitando la comprensión de su entorno, aunque muchas veces no esté consciente de los aspectos matemáticos que están involucrados.
Resumo:
En este artículo se habla sobre la relación de los niños de 0 a 6 años con el mundo del teatro, a través de una iniciativa de colaboración entre un grupo de teatro y profesionales de la educación infantil.
Resumo:
Resumen basado en el de la publicación
Resumo:
Resumen basado en el de la publicación
Resumo:
Introducir la noción matemática del límite siguiendo el método inductivo que ha seguido en su evolución histórica, opuesta al método tradicional, deductivo, utilizado en la totalidad de los manuales y libros de texto. La introducción al concepto se realiza a través de los ejercicios clásicos que permitieron las primeras aproximaciones al concepto de límite. Hipótesis: si el método experimental propuesto es efectivo, aplicado a una clase de alumnos universitarios, ha de producir mejores resultados en la adquisición del concepto de límite que si se hiciera siguiendo el método tradicional. 61 alumnos universitarios de la Facultad de Biología y de la Escuela Universitaria de Magisterio (primero y tercero respectivamente) de edades comprendidas entre los 18 y los 20 años. La investigación comienza con un recorrido histórico sobre la evolución de la noción de límite matemático, desde las civilizaciones antiguas hasta la actualidad (Weierstrass y Frechet). A continuación se introduce la idea de infinito y se hace una revisión de estos conceptos en los manuales universitarios más utilizados, así como en los de BUP y COU. Se procede a un estudio comparado entre el desarrollo histórico del concepto y el presentado en los manuales para llegar a la formulación de una propuesta metodológica renovada en cuanto a la adquisición de este concepto por parte del alumnado universitario. La parte experimental se realizó durante el primer trimestre del curso 89-90. El diseño metodológico pretest-programa experimental-posttest se dividió en tres etapas: elaboración, aplicación y corrección (resultados) de la prueba matemática sobre el concepto límite (ejercicios sobre límites, resolución de un problema matemático que lleve aparejado el cálculo de un límite, cálculo del límite a partir de la gráfica de la función y dado el límite de una función en un punto, escribir la función). La segunda etapa se dedicó a desarrollar el concepto de límite siguiendo el método tradicional y el experimental en cada uno de los dos grupos (dos grupos de primero de Biología y dos grupos de tercero de Magisterio). La nueva metodología se basó en llegar al concepto a través del problema concreto (Piaget). En la tercera se volvió a pasar la prueba a los dos grupos y se dió tratamiento estadístico a los datos. Resultados y conclusiones. De los datos obtenidos se desprende que la diferencia, en función del método empleado ha sido notable por lo que a los cuatro apartados del test se refiere. Esta diferencia se decanta significativamente en favor de método experimental, sobre el que se deseaba constatar su eficacia en cuanto al mayor rendimiento de los alumnos en la adqusición del concepto. El método juega un papel muy importante en la adquisición de los conocimientos, variando el método de enseñanza, varían los resultados obtenidos por los alumnos en el proceso de aprendizaje. El modelo de enseñanza activo y participativo mejora el rendimiento, así como el método experimental (inductivo) sobre el tradicional (deductivo). Se pone de manifiesto la necesidad de implantar una nueva metodología en el campo de la enseñanza de las Matemáticas.
Resumo:
La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.
Resumo:
El presente proyecto versa sobre la construcción de una pasarela peatonal sobre el río Jarama, al norte de la autovía A-2, a la altura del pk 15+400, en el límite entre Madrid y San Fernando de Henares
Resumo:
Esta investigación estudia la influencia de la comprensión de la aproximación a un número y de los modos de representación en la construcción de la concepción dinámica del límite en estudiantes de Bachillerato. El análisis de realizó usando el análisis implicativo (Gras, Suzuki, Guillet y Spagnolo, 2008). Los resultados indican que la construcción paulatina de la concepción dinámica del límite se realiza mediante procesos diferenciados de aproximación en el dominio y en el rango, y, dentro de estos últimos, aquellos en los que las aproximaciones laterales coinciden de las que no coinciden. Además, nuestros resultados indican que el modo numérico o el modo algebraico-numérico desempeñan un papel relevante en el desarrollo de la comprensión de la concepción dinámica de límite.