916 resultados para Invisible brackets


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto tiene como objetivo el desarrollo de una herramienta que permita al alumno la autocorrección de prácticas de la asignatura de Procesado Digital de la Señal. La herramienta será diseñada por medio del GUI de Matlab, que permite la creación de interfaces gráficos de usuario para la interacción con el alumno, así él mismo podrá comprobar si los resultado obtenidos para el enunciado de la práctica facilitado son correctos. La evaluación del alumno se llevará a cabo pidiendo distintas respuestas sobre las prácticas y comparándolas posteriormente con los resultados correctos. El código invisible al usuario será el encargado de indicar si el resultado es correcto o no lo es. ABSTRACT. The aim of this project is to develop a tool for the students of Digital Signal Processing that help them self-correct their lab exercises. The tool will be designed using the Matlab GUI, which allows the creation of graphical user interfaces to interact with the student, who can check whether the results obtained are correct or not. The student will be asked about different results of the exercises and the answers will be compared with the correct results. A part of the tool hidden to the student will reveal to the lecturer the outcome of this comparison.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años, y a la luz de los retos a los que se enfrenta la sociedad, algunas voces están urgiendo a dejar atrás los paradigmas modernos —eficiencia y rendimiento— que sustentan a las llamadas prácticas sostenibles, y están alentando a repensar, en el contexto de los cambios científicos y culturales, una agenda termodinámica y ecológica para la arquitectura. La cartografía que presenta esta tesis doctoral se debe de entender en este contexto. Alineándose con esta necesidad, se esfuerza por dar a este empeño la profundidad histórica de la que carece. De este modo, el esfuerzo por dotar a la arquitectura de una agenda de base científica, se refuerza con una discusión cultural sobre el progresivo empoderamiento de las ideas termodinámicas en la arquitectura. Esta cartografía explora la historia de las ideas termodinámicas en la arquitectura desde el principio del siglo XX hasta la actualidad. Estudia, con el paso de los sistemas en equilibrio a los alejados del equilibrio como trasfondo, como las ideas termodinámicas han ido infiltrándose gradualmente en la arquitectura. Este esfuerzo se ha planteado desde un doble objetivo. Primero, adquirir una distancia crítica respecto de las prácticas modernas, de modo que se refuerce y recalibre el armazón intelectual y las herramientas sobre las que se está apoyando esta proyecto termodinámico. Y segundo, desarrollar una aproximación proyectual sobre la que se pueda fundamentar una agenda termodinámica para la arquitectura, asunto que se aborda desde la firme creencia de que es posible una re-descripción crítica de la realidad. De acuerdo con intercambios de energía que se dan alrededor y a través de un edificio, esta cartografía se ha estructurado en tres entornos termodinámicos, que sintetizan mediante un corte transversal la variedad de intercambios de energía que se dan en la arquitectura: -Cualquier edificio, como constructo espacial y material inmerso en el medio, intercambia energía mediante un flujo bidireccional con su contexto, definiendo un primer entorno termodinámico al que se denomina atmósferas territoriales. -En el interior de los edificios, los flujos termodinámicos entre la arquitectura y su ambiente interior definen un segundo entorno termodinámico, atmósferas materiales, que explora las interacciones entre los sistemas materiales y la atmósfera interior. -El tercer entorno termodinámico, atmosferas fisiológicas, explora los intercambios de energía que se dan entre el cuerpo humano y el ambiente invisible que lo envuelve, desplazando el objeto de la arquitectura desde el marco físico hacia la interacción entre la atmósfera y los procesos somáticos y percepciones neurobiológicas de los usuarios. A través de estos tres entornos termodinámicos, esta cartografía mapea aquellos patrones climáticos que son relevantes para la arquitectura, definiendo tres situaciones espaciales y temporales sobre las que los arquitectos deben actuar. Estudiando las conexiones entre la atmósfera, la energía y la arquitectura, este mapa presenta un conjunto de ideas termodinámicas disponibles —desde los parámetros de confort definidos por la industria del aire acondicionado hasta las técnicas de acondicionamiento pasivo— que, para ser efectivas, necesitan ser evaluadas, sintetizadas y recombinadas a la luz de los retos de nuestro tiempo. El resultado es un manual que, mediando entre la arquitectura y la ciencia, y a través de este relato histórico, acorta la distancia entre la arquitectura y la termodinámica, preparando el terreno para la definición de una agenda termodinámica para el proyecto de arquitectura. A este respecto, este mapa se entiende como uno de los pasos necesarios para que la arquitectura recupere la capacidad de intervenir en la acuciante realidad a la que se enfrenta. ABSTRACT During the last five years, in the light of current challenges, several voices are urging to leave behind the modern energy paradigms —efficiency and performance— on which the so called sustainable practices are relying, and are posing the need to rethink, in the light of the scientific and cultural shifts, the thermodynamic and ecological models for architecture. The historical cartography this PhD dissertation presents aligns with this effort, providing the cultural background that this endeavor requires. The drive to ground architecture on a scientific basis needs to be complemented with a cultural discussion of the history of thermodynamic ideas in architecture. This cartography explores the history of thermodynamic ideas in architecture, from the turn of the 20th century until present day, focusing on the energy interactions between architecture and atmosphere. It surveys the evolution of thermodynamic ideas —the passage from equilibrium to far from equilibrium thermodynamics— and how these have gradually empowered within design and building practices. In doing so, it has posed a double-objective: first, to acquire a critical distance with modern practices which strengthens and recalibrates the intellectual framework and the tools in which contemporary architectural endeavors are unfolding; and second, to develop a projective approach for the development a thermodynamic agenda for architecture and atmosphere, with the firm belief that a critical re-imagination of reality is possible. According to the different systems which exchange energy across a building, the cartography has been structured in three particular thermodynamic environments, providing a synthetic cross-section of the range of thermodynamic exchanges which take place in architecture: -Buildings, as spatial and material constructs immersed in the environment, are subject to a contiuous bidirectional flow of energy with its context, defining a the first thermodynamic environment called territorial atmospheres. -Inside buildings, the thermodynamic flow between architecture and its indoor ambient defines a second thermodynamic environment, material atmospheres, which explores the energy interactions between the indoor atmosphere and its material systems. -The third thermodynamic environment, physiological atmospheres, explores the energy exchanges between the human body and the invisible environment which envelopes it, shifting design drivers from building to the interaction between the atmosphere and the somatic processes and neurobiological perceptions of users. Through these three thermodynamic environments, this cartography maps those climatic patterns which pertain to architecture, providing three situations on which designers need to take stock. Studying the connections between atmosphere, energy and architecture this map presents, not a historical paradigm shift from mechanical climate control to bioclimatic passive techniques, but a range of available thermodynamic ideas which need to be assessed, synthesized and recombined in the light of the emerging challenges of our time. The result is a manual which, mediating between architecture and science, and through this particular historical account, bridges the gap between architecture and thermodynamics, paving the way to a renewed approach to atmosphere, energy and architecture. In this regard this cartography is understood as one of the necessary steps to recuperate architecture’s lost capacity to intervene in the pressing reality of contemporary societies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pervasive computing offers new scenarios where users are surrounded by invisible and proactive technology making smart spaces. Although the utility and power of solutions developed using this computer paradigm are proved, there are unresolved problems that hinder their acceptance and inclusion in our private life. Users have problems understanding the operations of a pervasive computing solution, and therefore they should trust that the solution works properly and according to their expectations. Nevertheless, the concept of trust is already framed in a specific use within the ecosystem of applications that can populate a smart space. To take this concept of trust to the whole space, we propose to study and define the concept of confidence. In contrast to the concept of trust, confidence has deeper psychological implications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta investigación recoge un cúmulo de intereses en torno a un modo de generar arquitectura muy específico: La producción de objetos con una forma subyacente no apriorística. Los conocimientos expuestos se apoyan en condiciones del pensamiento reciente que impulsan la ilusión por alimentar la fuente creativa de la arquitectura con otros campos del saber. Los tiempos del conocimiento animista sensible y el conocimiento objetivo de carácter científico son correlativos en la historia pero casi nunca han sido sincrónicos. Representa asimismo un intento por aunar los dos tipos de conocimiento retomando la inercia que ya se presentía a comienzos del siglo XX. Se trata por tanto, de un ensayo sobre la posible anulación de la contraposición entre estos dos mundos para pasar a una complementariedad entre ambos en una sola visión conjunta compartida. Como meta final de esta investigación se presenta el desarrollo de un sistema crítico de análisis para los objetos arquitectónicos que permita una diferenciación entre aquellos que responden a los problemas de manera completa y sincera y aquellos otros que esconden, bajo una superficie consensuada, la falta de un método resolutivo de la complejidad en el presente creativo. La Investigación observa tres grupos de conocimiento diferenciados agrupados en sus capítulos correspondientes: El primer capítulo versa sobre el Impulso Creador. En él se define la necesidad de crear un marco para el individuo creador, aquel que independientemente de las fuerzas sociales del momento presiente que existe algo más allá que está sin resolver. Denominamos aquí “creador rebelde” a un tipo de personaje reconocible a lo largo de la Historia como aquel capaz de reconocer los cambios que ese operan en su presente y que utiliza para descubrir lo nuevo y acercarse algo al origen creativo. En el momento actual ese tipo de personaje es el que intuye o ya ha intuido hace tiempo la existencia de una complejidad creciente no obviable en el pensamiento de este tiempo. El segundo capítulo desarrolla algunas Propiedades de Sistemas de actuación creativa. En él se muestra una investigación que desarrolla un marco de conocimientos científicos muy específicos de nuestro tiempo que la arquitectura, de momento, no ha absorbido ni refleja de manera directa en su manera de crear. Son temas de presencia casi ya mundana en la sociedad pero que se resisten a ser incluidos en los procesos creativos como parte de la conciencia. La mayoría de ellos hablan de precisión, órdenes invisibles, propiedades de la materia o la energía tratados de manera objetiva y apolítica. La meta final supone el acercamiento e incorporación de estos conceptos y propiedades a nuestro mundo sensible unificándolos indisociablemente bajo un solo punto de vista. El último capítulo versa sobre la Complejidad y su capacidad de reducción a lo esencial. Aquí se muestran, a modo de conclusiones, la introducción de varios conceptos para el desarrollo de un sistema crítico hacia la arquitectura de nuestro tiempo. Entre ellos, el de Complejidad Esencial, definido como aquella de carácter inevitable a la hora de responder la arquitectura a los problemas y solicitaciones crecientes a los que se enfrenta en el presente. La Tesis mantiene la importancia de informar sobre la imposibilidad en el estado actual de las cosas de responder de manera sincera con soluciones de carácter simplista y la necesidad, por tanto, de soluciones necesarias de carácter complejo. En este sentido se define asimismo el concepto de Forma Subyacente como herramienta crítica para poder evaluar la respuesta de cada arquitectura y poder tener un sistema y visión crítica sobre lo que es un objeto consistente frente a la situación a la que se enfrenta. Dicha forma subyacente se define como aquella manera de entender conjuntamente y de manera sincrónica aquello que percibimos de manera sensible inseparable de las fuerzas ocultas, creativas, tecnológicas, materiales y energéticas que sustentan la definición y entendimiento de cualquier objeto construido. ABSTRACT This research includes a cluster of interests around a specific way to generate architecture: The production of objects without an a priori underlying form. The knowledge presented is based on current conditions of thought promoting the illusion to feed the creative source of architecture with other fields of knowledge. The sensible animist knowledge and objective scientific knowledge are correlative in history but have rarely been synchronous. This research is also an attempt to combine both types of knowledge to regain the inertia already sensed in the early twentieth century. It is therefore an essay on the annulment of the opposition between these two worlds to move towards complementarities of both in a single shared vision. The ultimate goal of this research is to present the development of a critical analysis system for architectural objects that allows differentiation between those who respond to the problems sincerely and those who hide under an agreed appearance, the lack of a method for solving the complexity of the creative present. The research observes three distinct groups of knowledge contained in their respective chapters: The first chapter deals with the Creative Impulse. In it is defined the need to create a framework for the creative individual who, regardless of the current social forces, forebodes that there is something hidden beyond which is still unresolved. We define the "rebel creator" as a kind of person existing throughout history who is able to recognize the changes operating in its present and use them to discover something new and get closer to the origin of creation. At present, this type of character is the one who intuits the existence of a non obviable increasing complexity in society and thought. The second chapter presents some systems, and their properties, for creative performance. It describes the development of a framework composed of current scientific knowledge that architecture has not yet absorbed or reflected directly in her procedures. These are issues of common presence in society but are still reluctant to be included in the creative processes even if they already belong to the collective consciousness. Most of them talk about accuracy, invisible orders, properties of matter and energy, always treated from an objective and apolitical perspective. The ultimate goal pursues the approach and incorporation of these concepts and properties to the sensible world, inextricably unifying all under a single point of view. The last chapter deals with complexity and the ability to reduce it to the essentials. Here we show, as a conclusion, the introduction of several concepts to develop a critical approach to analyzing the architecture of our time. Among them, the concept of Essential Complexity, defined as one that inevitably arises when architecture responds to the increasing stresses that faces today. The thesis maintains the importance of reporting, in the present state of things, the impossibility to respond openly with simplistic solutions and, therefore, the need for solutions to complex character. In this sense, the concept of Underlying Form is defined as a critical tool to evaluate the response of each architecture and possess a critical system to clarify what is an consistent object facing a certain situation. The underlying form is then defined as a way to synchronously understand what we perceive sensitively inseparable from the hidden forces of creative, technological, material and energetic character that support the definition and understanding of any constructed object.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En paralelo a la superficie cotidiana de la ciudad moderna, discurre otra "ciudad invisible" o "caja negra" tecnológica, que opera, de manera silenciosa e imperceptible, al servicio de los ciudadanos. Paradójicamente, en este espacio invisible, se toman decisiones de la máxima relevancia para la ciudad: en la "caja negra", las ciudades pactan sus relaciones con la naturaleza; a través de ella, se produce la administración y distribución de los recursos que componen su metabolismo urbano. En definitiva, la "caja negra" es el conjunto de las arquitecturas donde se urbaniza la naturaleza, donde ésta pasa a ser ciudad. Y, sin embargo, ha tendido a permanecer invisible. No obstante, en el último tercio del siglo XX, se ha "abierto la caja negra" urbana y lo que era invisible ha dejado de serlo o, al menos, ha alterado su estatuto de visibilidad. El objetivo de esta tesis doctoral es evaluar las repercusiones arquitectónicas, urbanísticas y ecológicas, que conlleva este reciente fenómeno urbano que, desde hace unas décadas, está teniendo lugar en muchas de las ciudades herederas de las grandes reformas urbanas acometidas en las metrópolis europeas durante el siglo XIX, bajo el paradigma simbólico de un proyecto moderno "prometeico" y emancipador. Para abordar dicho análisis, se pondrán en relación dos parámetros urbanos elementales que han tendido a ser estudiados por separado. Por un lado, la "ecología política urbana", es decir, la red de relaciones socio-ecológicas que acontecen en la ciudad. Por otro lado, la "economía de la visibilidad", es decir, las formas de articular lo visible y lo invisible, en relación a los marcos de gobernanza. La intersección entre la "ecología política urbana" y la "economía de la visibilidad" proporciona un marco de análisis efectivo para comprender el fenómeno de la "apertura de la caja negra" y conlleva un cuestionamiento de algunas nociones dominantes en la teoría urbana y arquitectónica clásicas, como la segregación de la naturaleza, las infraestructuras y la sociedad o como las formas tradicionales de explotación ecológica del medio. Además, ofrece un criterio de análisis privilegiado para la comprensión del proceso de deslegitimación (filosófica, arquitectónica, económica, así como desde perspectivas ecológicas, sociales, de género o queer) de los modelos urbanísticos integrales modernos, herederos de los marcos antropocéntricos del siglo XIX. Por último, proporciona algunas herramientas arquitectónicas para afrontar los desafíos ecosistémicos del siglo XXI. A través del estudio de autores relevantes que han analizado esta problemática para la arquitectura, así como del estudio de casos arquitectónicos que han marcado hitos fundamentales en la consolidación urbana de los procesos asociados a la "caja negra", se concluirá que, en términos ecológicos, la ciudad moderna ha movilizado una "ecología política urbana" basada en fórmulas de sometimiento del entorno, a partir de operaciones arquitectónicas y tecnológicas invisibles. En esta tesis doctoral se estudiará la organización arquitectónica de las arquitecturas de la "caja negra" y se evaluará si el fenómeno de la "apertura de la caja negra" puede ser considerado como un síntoma de la alteración en la "ecología política urbana". 'Abriremos la caja negra" para estudiar cómo se integran en el espacio urbano los dispositivos tecnológicos de escala urbana, toda vez éstos han dejado de ser invisibles. Cómo participan, como un actor más, en la configuración de otros marcos de cohabitación, dentro de la ciudad contemporánea. ABSTRACT An 'invisible city' or technological 'black box' runs parallel to the day-to-day surface of modern cities, remaining silent, unnoticed, at the service of the citizenry. Paradoxically, this invisible space is where some of the most relevant decisions concerning the city are made: the 'black box' is where cities agree on their relationships with nature; it is used to manage and distribute the resources that form its urban metabolism. In short, the 'black box' is the collection of architectures where nature is urbanised, where it becomes a city. And in spite of all this, it has mostly remained invisible. Nevertheless, this urban 'black box' was opened during the last third of the 20th century, so what used to be invisible is invisible no more, or at least the laws governing its visibility have been altered. The purpose of this doctoral thesis is to evaluate the architectural, urban planning and ecological repercussions of this recent urban phenomenon that has been taking place for several decades in many of the cities that followed in the footsteps of the large European metropolises of the 19th century, under the symbolic paradigm of a modern 'prometheic' and emancipating project. This analysis shall be done by juxtaposing two basic urban parameters that in general have been studied separately: frstly the ‘urban political ecology', that is, the network of socio-ecological relationships within the city. Secondly, the 'economy of visibility', that is, the way the visible and invisible spheres are structured in relation with the governance frameworks. The intersection between the 'urban political ecology' and the 'economy of visibility' provides an effective analysis framework to understand the phenomenon of the 'opening of the black box'. It entails calling into question some of the predominant notions in classical urban and architectural theory, such as the segregation of nature, infrastructures and society, or the traditional forms of ecological usage of the environment. It also offers an exceptional analysis criterion to understand the discrediting process (from a philosophical, architectural, economic perspective, but also from the point of view of ecology, society, gender or queerness) of modern all-encompassing urban models that draw from the anthropocentric frameworks of the 19th century. Finally, it provides some architectural tools to tackle 21st-century ecosystemic challenges. The study of relevant authors that have analysed these problems for architecture, as well as the study of milestone architectural cases for the urban consolidation of processes associated to the 'black box', shall serve to reach the conclusion that, in ecological terms, modern cities have mobilised an 'urban political ecology' based on formulas of subjugation of the environment, through invisible architectural and technological operations. This thesis shall present an evaluation of whether the phenomenon of the 'opening of the black box' can be considered a symptom of the alteration of the 'urban political ecology'. We shall 'open the black box' to study the integration of the various urbanscale technological devices within the urban landscape, now that they have ceased to be invisible. We shall see how they participate, like any other actor, in the confguration of other cohabitation frameworks within today's cities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los muros cortina modulares están constituidos por paneles prefabricados que se fijan al edificio a través de anclajes a lo largo del borde del forjado. El proceso de prefabricación garantiza buena calidad y control de los acabados y el proceso de instalación es rápido y no requiere andamiaje. Por estas razones su uso está muy extendido en torres. Sin embargo, el diseño de los marcos de aluminio podría ser más eficiente si se aprovechara la rigidez de los vidrios para reducir la profundidad estructural de los montantes. Asimismo, se podrían reducir los puentes térmicos en las juntas si se sustituyeran los marcos por materiales de menor conductividad térmica que el aluminio. Esta investigación persigue desarrollar un muro cortina alternativo que reduzca la profundidad estructural, reduzca la transmisión térmica en las juntas y permita un acabado enrasado al interior, sin que sobresalgan los montantes. La idea consiste en conectar un marco de material compuesto de fibra de vidrio a lo largo del borde del vidrio aislante a través de adhesivos estructurales para así movilizar una acción estructural compuesta entre los dos vidrios y lograr una baja transmitancia térmica. El marco ha de estar integrado en la profundidad del vidrio aislante. En una primera fase se han efectuado cálculos estructurales y térmicos preliminares para evaluar las prestaciones a un nivel esquemático. Además, se han realizado ensayos a flexión en materiales compuestos de fibra de vidrio y ensayos a cortante en las conexiones adhesivas entre vidrio y material compuesto. Con la información obtenida se ha seleccionado el material del marco y del adhesivo y se han efectuado cambios sobre el diseño original. Los análisis numéricos finales demuestran una reducción de la profundidad estructural de un 80% y una reducción de la transmisión térmica de un 6% en comparación con un sistema convencional tomado como referencia. El sistema propuesto permite obtener acabados enrasados. ABSTRACT Unitised curtain wall systems consist of pre manufactured cladding panels which can be fitted to the building via pre fixed brackets along the edge of the floor slab. They are universally used for high rise buildings because the factory controlled assembly of units ensures high quality and allows fast installation without external access. However, its frame is structurally over-dimensioned because it is designed to carry the full structural load, failing to take advantage of potential composite contribution of glass. Subsequently, it is unnecessarily deep, occupying valuable space, and protrudes to the inside, causing visual disruption. Moreover, it is generally made of high thermal conductivity metal alloys, contributing to substantial thermal transmission at joints. This research aims to develop a novel frame-integrated unitised curtain wall system that will reduce thermal transmission at joints, reduce structural depth significantly and allow an inside flush finish. The idea is to adhesively bond a Fibre Reinforced Polymer (FRP) frame to the edge of the Insulated Glass Unit (IGU), thereby achieving composite structural behaviour and low thermal transmittance. The frame is to fit within the glazing cavity depth. Preliminary analytical structural and numerical thermal calculations are carried out to assess the performance of an initial schematic design. 4-point bending tests on GFRP and single-lap shear tests on bonded connections between GFRP and glass are performed to inform the frame and adhesive material selection process and to characterise these materials. Based on the preliminary calculations and experimental tests, some changes are put into effect to improve the performance of the system and mitigate potential issues. Structural and thermal numerical analysis carried out on the final detail design confirm a reduction of the structural depth to almost one fifth and a reduction of thermal transmission of 6% compared to a benchmark conventional system. A flush glazed appearance both to the inside and the outside are provided while keeping the full functionality of a unitised system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las limitaciones en la capacidad de movilidad pueden ser consideradas en la actualidad como una forma de discriminación tremenda y a la vez invisible dentro de la sociedad. Para poder evitar esta discriminación es necesario que las políticas de transporte, que hasta ahora han basado sus actuaciones particularmente sobre las necesidades de acceso al empleo, reconozcan las exigencias de las personas dependientes y de aquellas que realizan las tareas no remuneradas del cuidado de otros y de atención a la familia. Las personas que trabajan en las tareas domésticas, en la mayoría de los casos mujeres, tienen muchas dificultades para sincronizar sus obligaciones con los tiempos y las distancias. Estas personas desempeñan un trabajo diario, que tiene lugar tanto fuera como dentro del hogar y tienen necesidades específicas de movilidad. El problema principal es que este tipo de trabajo no suele ser tomado en consideración, ya que no entra en la esfera del trabajo remunerado. Pero es una labor que está estrictamente ligada a la actividad de la sociedad y es un elemento indispensable para el funcionamiento de la vida urbana. Es un trabajo real, que tiene lugar en el espacio urbano, que exige un considerable esfuerzo físico y emocional, y que ayuda a garantizar la calidad de la vida cotidiana. Es un aspecto indispensable a tener en cuenta en el ejercicio de las políticas públicas y sociales. Sobre la base de estas consideraciones se introduce el concepto “Movilidad del cuidado” (Sánchez de Madariaga, 2009a y 2009b), mediante el cual se reconoce la necesidad de evaluar y hacer visible los desplazamientos diarios asociados con el trabajo del cuidado. Por trabajo del cuidado se entiende el trabajo no remunerado, realizado por los adultos para los niños u otras personas dependientes, incluido el trabajo relacionado con el mantenimiento del hogar. El análisis de este tipo de viajes exige ciertos cambios significativos en las formas de recoger datos estadísticos. No se trata solo de sumar los desplazamientos que actualmente aparecen en las estadísticas como viajes de compras, acompañamiento, gestiones, cuidado de otros, etc. El problema es que los datos sobre movilidad se recogen con una serie de sesgos que infravaloran los viajes de cuidado: las estadísticas no cuentan los viajes cortos a pie y tampoco reflejan bien los viajes encadenados, ambos típicamente femeninos; no se deslindan con precisión los viajes de cuidado de otro tipo de viajes, de manera que muchos desplazamientos relacionados con la esfera reproductiva aparecen como viajes personales o de ocio y en muchos casos se encasillan en la categoría otros. Mediante esta investigación se pretende estimar el peso que la movilidad del cuidado tiene en el total de la movilidad y describirla de manera precisa en un contexto geográfico determinado, en el caso específico Madrid. Los estudios sobre el tema realizados hasta el momento reconocen la necesidad de llevar a cabo encuestas de movilidad que tengan en cuenta las variables socio económicas que caracterizan a la población y también se demanda la segregación de los datos recogidos por sexo, así como el uso del género como una categoría analítica. Igualmente es indispensable atribuir la misma importancia que tienen los viajes relacionados con la esfera productiva a los que están relacionados con la esfera reproductiva. No obstante, es solo mediante la introducción del concepto de “movilidad del cuidado” que se propone una nueva categorización de los motivos de desplazamiento dentro de las “clásicas” encuestas de movilidad y, por primera vez, mediante esta investigación se aplica este concepto a un ejemplo práctico a partir del cual queda en evidencia la necesidad de un cambio de enfoque en las políticas de transporte. Así, a través el uso de encuestas cuantitativas y cualitativas realizadas ad hoc sobre la base de la metodología propuesta, se capturan los patrones de viajes significativos para poder describir en maneara exhaustiva la movilidad de las personas que tienen responsabilidades de cuidado. El objetivo es crear una base de conocimiento más amplia sobre los patrones de movilidad, comportamientos y necesidades, además de mejorar los conceptos operacionales y establecer políticas de transporte más equitativas, que respondan de mejor manera a las necesidades de género, beneficiando así a toda la sociedad. ABSTRACT Nowadays, limitations in urban mobility can be considered as some type of extreme discrimination, which remains invisible to the society. In order to avoid this kind of discrimination, new transport policies are required, especially considering that so far they have been based and organized particularly in relation to the needs derived from the access to employment. These policies must take into account the demands of people depending on the support of others as well as of unpaid caregivers in charge of looking after other individuals and taking care of the family. Most of the people devoted to domestic work, which in the vast majority of cases is carried out by women, find it difficult to coordinate their obligations with time and distances. These people carry out a daily job that takes place both inside their homes as well as outside, and they have specific mobility needs. The main issue is that this type of work is usually not taken into consideration, since it is not included under the scope of paid employment. However, this work is strictly related to the activities of society and is therefore a crucial element in the functioning of urban life. It is an actual job that takes place in an urban space, requires a considerable amount of physical and emotional effort and guarantees quality of life on a daily basis. This is an important aspect that should be taken into account when drafting public and social policies. The concept of “Mobility of care” (Sánchez de Madariaga, 2009a and 2009b) is introduced under these considerations. This concept acknowledges the need to evaluate and identify daily movements from one place to another that are related to caregiving. Caregiving is understood, in this case, as unpaid work that is carried out by adults for children and other people that depend on the support of others, and it also includes duties related to home maintenance. The analysis of these types of movements requires some significant changes in the way in which statistic data is gathered. The idea is to not only add up the movements that appear in statistics such as shopping trips, accompanying someone, dealings, caregiving, etc. The problem with data on mobility is that it is gathered with bias that undervalues mobility related to caregiving: statistics do not take into consideration short trips that are made walking nor do they properly reflect connected trips, both of which are typically feminine; moreover, there is an imprecise differentiation of trips related to caregiving and other kind of trips, and because of that, many of the trips related to the reproductive sphere are considered personal or recreational trips, and are many times labelled as others. This investigation aims to evaluate the importance that mobility of care has in mobility in general, describing it in a precise manner within a specific geographical context that in this case is Madrid. To this date, most of the studies on this subject have acknowledged the need to carry out mobility surveys that include socio economic variables that characterize the population and they have also requested that collected data is segregated by sex and that gender is used as an analytical category. Likewise, it is fundamental to give the same importance to mobility related to the sphere of reproduction as to that related to the sphere of productiveness. However, it is only through the implementation of the concept of “mobility of care” that a new categorization of mobility, within classic mobility surveys, is proposed. Also, for the first time and by this investigation, this concept is applied to a practical case, shining a light on the need to change the focus of transport policies. Through the use of ad hoc quantitative and qualitative surveys based on the proposed methodology, the patterns of relevant movements are identified in order to thoroughly describe the mobility of people responsible of caregiving. The aim is to create a broader knowledge base on patterns of mobility, behaviour and necessities, in addition to improving functional concepts and transport policies to make them more equitable and responsive to gender needs, thus benefitting society as a whole.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El vínculo de Mies van der Rohe con la simetría es un invariante que se intuye en toda su obra más allá de su pretendida invisibilidad. Partiendo del proyecto moderno como proceso paradójico, que Mies lo expresa en sus conocidos aforismos, como el célebre “menos es más”, la tesis pretende ser una aproximación a este concepto clave de la arquitectura a través de una de sus obras más importantes: el Pabellón Alemán para la Exposición Universal de 1.929 en Barcelona. Ejemplo de planta asimétrica según Bruno Zevi y un “auténtico caballo de Troya cargado de simetrías” como lo definió Robin Evans. El Pabellón representó para la modernidad, la culminación de una década que cambió radicalmente la visión de la arquitectura hasta ese momento, gracias al carácter inclusivo de lo paradójico y las innumerables conexiones que hubo entre distintas disciplinas, tan antagónicas, como el arte y la ciencia. De esta última, se propone una definición ampliada de la simetría como principio de equivalencia entre elementos desde la invariancia. En esta definición se incorpora el sentido recogido por Lederman como “expresión de igualdad”, así como el planteado por Hermann Weyl en su libro Simetría como “invariancia de una configuración bajo un grupo de automorfismos” (libro que Mies tenía en su biblioteca privada). Precisamente para Weyl, el espacio vacío tiene un alto grado de simetría. “Cada punto es igual que los otros, y en ninguno hay diferencias intrínsecas entre las diversas direcciones." A partir de este nuevo significado, la obra de Mies adquiere otro sentido encaminado a la materialización de ese espacio, que él pretendía que “reflejase” el espíritu de la época y cuya génesis se postula en el Teorema de Noether que establece que “por cada simetría continua de las leyes físicas ha de existir una ley de conservación”. Estas simetrías continúas son las simetrías invisibles del espacio vacío que se desvelan “aparentemente” como oposición a las estructuras de orden de las simetrías de la materia, de lo lleno, pero que participan de la misma lógica aporética miesiana, de considerarlo otro material, y que se definen como: (i)limitado, (in)grávido, (in)acabado e (in)material. Finalmente, una paradoja más: El “espacio universal” que buscó Mies, no lo encontró en América sino en este pabellón. Como bien lo han intuido arquitectos contemporáneos como Kazuyo Sejima + Ryue Nishizawa (SANAA) legítimos herederos del maestro alemán. ABSTRACT The relationship between Mies van der Rohe with the symmetry is an invariant which is intuited in his entire work beyond his intentional invisibility. Based on the modern project as a paradoxical process, which Mies expresses in his aphorisms know as the famous “less is more”, the thesis is intended to approach this key concept in architecture through one of his most important works: The German Pavilion for the World Expo in 1929 in Barcelona, an example of asymmetric floor according to Bruno Zevi and a “real Trojan horse loaded with symmetries”. As defined by Robin Evans. For modernity, this Pavilion represented the culmination of a decade which radically changed the vision of architecture so far, thanks to the inclusive character of the paradoxical and the innumerable connections that there were amongst the different disciplines, as antagonistic as Art and Science. Of the latter, an expanded definition of symmetry is proposed as the principle of equivalence between elements from the invariance. Incorporated into this definition is the sense defined by Leterman as “expression of equality,” like the one proposed by Hermann Weyl in his book Symmetry as “configuration invariance under a group of automorphisms” (a book which Mies had in his private library). Precisely for Weyl, the empty space has a high degree of symmetry. “Each point is equal to the other, and in none are there intrinsic differences among the diverse directions.” Based on this new meaning, Mies’ work acquires another meaning approaching the materialization of that space, which he intended to “reflect” the spirit of the time and whose genesis is postulated in the Noether’s theorem which establishes that “for every continuous symmetry of physical laws, there must be a law of conservation.” These continuous symmetries are the invisible empty space symmetries which reveal themselves “apparently” as opposition to the structures of matter symmetries, of those which are full, but which participate in the same Mies aporetic logic, if deemed other material, and which is defined as (un)limited, weight(less), (un)finished and (im)material. Finally, one more paradox: the “universal space” which Mies search for, he did not find it in America, but at this pavilion, just as the contemporary architects like Kazuyo Sejima + Ryue Nishizawa (SANAA) rightfully intuited, as legitimate heirs of the German master.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Según Heidegger, la esencia de la arquitectura, de la construcción, descansa en un no espacio: en la materia con que se construyen las fronteras que otorgan espacios, irradiando sobre ellos aquello que los caracteriza. Si hay alguna materia, de las utilizadas por la arquitectura a lo largo de su historia para construir fronteras, que haya mantenido una especial relación con la luz y la visión, dando un carácter inconfundible a los espacios aviados por ellas, esta es el vidrio; algunas de las etimologías de su nombre: zakû (ser claro), hyalos (diáfano) o vitrum (ver), así lo evidencian. Posiblemente, sea la pregnancia de este modo fascinante de relacionarse con la luz, la que ha hecho del vidrio, a lo largo del tiempo que lleva siendo usado en arquitectura, y aún antes, el material que ha provocado en el imaginario humano la ilusión de ser aquel en que, en último término, podrían llegar a sublimarse todos los demás, dando lugar con ello a lo que en la tesis hemos denominado el sueño de la arquitectura de cristal. Siendo la luz, siempre, energía, consideraremos en la tesis luz-energía, a aquella que ilumina y calienta; es una luz científica y mesurable. Cuando la luz se “hace visible”, desvelando un mensaje “contenido” en el vidrio, hablaremos de luz-información. Esta luz, no puede medirse científicamente. La luz-energía y la luz-información, se manifiestan al conjuro de la arquitectura de vidrio. Es la segunda la que ha conformado las fronteras de vidrio enmascarado, y la que se estudia con más detenimiento en la tesis. Los distintos modos de usar en arquitectura la infinita combinatoria de las propiedades de absortancia, reflectancia, transmitancia y translucencia del vidrio, ha condicionado al hombre en su manera de “ver” el mundo. Unas veces, “inmerso” en él, puesto que solo lo separa del mismo, una frontera transparente, y “deseadamente” invisible: ese modo de usar el vidrio, ha sido el sueño imposible de una parte importante de la arquitectura del siglo XX. Otras veces, para “aislarse” de él, el hombre ha manipulado la luz y el vidrio para construir mundos diferentes. Las fronteras de vidrio enmascarado de color, mosaicos, vidrieras, pantallas y lo que hemos llamado vidrios complejos (con un cometido similar al que Schiller atribuía al coro en la tragedia griega, aislar a esta del “mundo real”, para mantener su libertad poética), son las fronteras que han construido el sueño posible de la arquitectura de cristal. Ambas actitudes, en distintos momentos de la historia de la arquitectura, han sido dos formas de querer materializar un mismo sueño. La capacidad del vidrio para adaptarse a tantos modos de presentarse ante nosotros, y a poder ser interpretado de tantas formas diferentes, es la que ha servido para dar título a la tesis, pues hasta en su faceta más transparente, el vidrio, de una forma o de otra, se ha mostrado siempre como un material enmascarado en el más amplio sentido de la palabra: se enmascara, incluso cuando apela a la transparencia o se convierte en espejo, para hacernos caer en la ilusión de que no está presente. Cuando el hombre construyó fronteras de vidrio e incluso antes, cuando soñó que con él podría llegar a construirlas, condensó en ellas toda la mítica, la mística y la epistemología en torno a la luz y la visión, dando lugar a una serie de arquetipos arquitectónicos. En la iglesia bizantina, la luz sobre, o la luz desde, los mosaicos, construyó una frontera titilante; y en la catedral gótica, la luz a través de las vidrieras construyó una frontera radiante; en ambos casos con el fin de alcanzar anagógicamente lo Inteligible. En el siglo XIX, con el descubrimiento de la electricidad y su incorporación a la arquitectura, las fronteras se vuelven fulgurantes, aviando, en este caso, el espacio urbano. Poco antes, en este mismo siglo, el espíritu del gótico tiene un efímero resurgir del que se nutrirá, a comienzos del siglo XX, el expresionismo cristalino, en el que la luz anagógica se hace laica. El espacio urbano fulgurante prefigurado por este movimiento y presente en las ciudades desde principios del siglo XX, fue potenciado a mediados de ese siglo con la aparición de las pantallas, extendiéndose desde entonces, imparable, por todo el planeta. La reciente emergencia de los vidrios complejos, ha abierto la posibilidad de construir fronteras a la carta (de vidrios de propiedades múltiples, seleccionadas de forma voluntaria y variable en cada momento). En principio, se pensó que, el uso de estos vidrios como cerramiento, podría llegar a constituirse como la panacea de los problemas del material relacionados con la luz-energía, sin necesidad de recurrir a “prótesis”, y manteniendo por tanto la seductora tersura de la fachada; aunque parece que, por ahora, esa posibilidad es, cuando menos, lejana. Sin embargo, en el campo de las megapantallas urbanas (y ,en general, en el de las pantallas de información), ubicuas actualmente en nuestras vidas, los vidrios complejos ayudan a construir los espesos velos de ilusión, que según Lefebvre sirven para mantener el capitalismo, siendo el último estadio de un desarrollo tecnológico, impuesto por el principio de economía del hombre, que como un metrónomo inexorable, y a modo de contrapunto, ha acompañado siempre (de nuevo en palabras de Lefebvre), a la necesidad del gasto, del juego, de la lucha, del arte, de la fiesta. La tecnología y el arte forman parte de la cultura producida por la sociedad y como señala Lévi-Strauss, esa cultura imprime orden; por el contrario, la sociedad, entendida como el conjunto de relaciones que los hombres mantienen entre sí, produce desorden. Del equilibrio entre esos extremos, surge el progreso, incluido el de la arquitectura. Las fronteras de vidrio que analizamos en la tesis –que avían espacios para la espiritualidad, el fasto y el espectáculo o, desde otro punto de vista, para las distintas manifestaciones del poder: la iglesia, la monarquía, el estado o el mercado– también han surgido de esa concomitancia entre el desorden y el orden; y forma parte de ese desorden, la aventura que ha impulsado al genio individual de místicos, alquimistas, geómetras, abades, reyes, inventores, poetas y arquitectos, a explorar, como escribe Apollinaire, vastos y extraños territorios donde el misterio en flor, se ofrece a quien quiera cogerlo, hogueras nuevas de colores nunca vistos, mil fantasmas imponderables a los que dar cuerpo. ABSTRACT According to Heidegger, the essence of architecture, building, lies in a non-space: the material that creates the boundaries from which something begins its presencing, radiating onto them that which characterizes them. If there is any single material amongst all those used throughout the history of architecture to build boundaries which has maintained a special relationship with light and vision, which has bestowed a distinctive character on spaces avid for them, it is glass. This is evidenced in some of its etymologies: zakû (to be clear), hyalos (transparent), vitrum (see). The rich potential of this fascinating way of relating to light in the history of the architectural use of glass, and even before, is possibly what has triggered the illusion in human imagination of being something that can ultimately sublimate all others, giving rise to what in this thesis we call The Dream of Crystal Architecture. Given that light is always energy, in this thesis we consider energy-light to be that which illuminates and warms. This is scientific, measurable light. When light "becomes visible" and reveals a message “contained” in glass, we speak of information-light. This light cannot be measured scientifically. Energy-light and information-light are manifested under the spell of glass architecture. The latter is what has shaped the boundaries of coloured glass, which is studied in this thesis. Architecture's different ways of using the infinite combinations of the absorptance, reflectance, transmittance and translucency of glass has affected the way we humans "see" the world. Sometimes we are "immersed" in it, since only an invisible, transparent boundary separates us from it: this use of glass has characterized a considerable part of 20th century architecture. In other cases, in order to "isolate" us from it, we have manipulated light and glass to build different worlds: the boundaries of glass "masked" by colour, mosaics, stained glass, screens and what we have called complex glazing, which plays a similar role to what Schiller attributed to the chorus in Greek tragedy, isolating it from the "real world" in order to maintain its poetic license. These are the boundaries that have built the viable dream of crystal architecture. These two approaches have been different ways of making same dream come true at different times in the history of architecture. The ability of glass to adapt to so many forms of manifestation, and interpretation, is what has given rise to the title of the thesis. Even in its most transparent facet, glass has one way or another always been a masking material in the broadest sense of the word: it is masked even when it invites transparency or becomes a mirror, triggering the illusion that it is not present. When man began to build glass boundaries, and even before, when he dreamed that he could build them, he condensed in them all the mythology, mysticism and epistemology concerning light and vision, which gave rise to a series of architectural archetypes. In the Byzantine church, light on or from mosaics created tenuous boundaries. In Gothic cathedrals, the light through the stained glass windows constructed radiant boundaries. In both cases the aim was to achieve, in an anagogical way, the Intelligible. In the 19th, the discovery of electricity and its use in architecture led to the production of dazzling boundaries, in this case employed in urban spaces. Earlier in the same century, the Gothic spirit had a short-lived revival, which in the early 20th century drew from crystalline expressionism in which anagogic light became secular. The dazzling urban space prefigured by this movement, present in cities since the early 20th century, was intensified in the mid-century with the emergence of screens, and since then it has spread unstoppably across the world. The recent emergence of complex glasses has made it possible to build boundaries on demand in glass with multiple properties, chosen at will and at whim at any time. Initially it was thought that the use of this glass as a wall could eventually become the panacea for the material problems related to energy-light, without needing to resort to "prosthesis" and thereby maintain the seductive smoothness of the facade. For now, that possibility seems remote, to say the least. In the realm of urban megascreens and information screens in general, now ubiquitous in our lives, complex glasses help to build the thick veils of illusion which, according to Lefebvre, serve to maintain capitalism. Like an inexorable metronome, in counterpoint, this ultimate state of technological development imposed by man's principle of economy has in fact always accompanied (again in the words of Lefebvre), the need to spend, play, fight, art, and party. Technology and art are part of the culture produced by society. As Levi-Strauss says, this culture imposes order. On the contrary, society, understood as a set of relationships amongst people, produces disorder. Progress, including that of architecture, arises from the balance between these two extremes. The glass boundaries analyzed in this thesis, which propitiate spaces for spirituality, pomp and spectacle or, from a different perspective, for the various manifestations of power: the church, the monarchy, the state and the market, have also emerged from the concomitance of order and disorder. One aspect of this disorder is the adventure that has inspired the individual genius of mystics, alchemists, surveyors, abbots, kings, inventors, poets and architects to explore, as Apollinaire says, vast, strange domains where flowering mystery offers itself to whoever wishes to pluck it, new fires, colours you have never seen before, a thousand intangible phantasms still awaiting reality.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Physical and social transformation processes that take place in urban contexts with strong spatial growth and hardly any economic development frequently have significant adverse impacts for the affected people, which tend to be made invisible. This paper presents an analytical framework to explore different ways to approach urban transformation processes (supply side), their impacts on the set of needs of the community (demand side) and their consequences on the urban environment as a whole (context). The proposed method has been used to assess three actions related to the physical and social transformation of the largest self-made settlement in the city of Dakar, Senegal, during the 2005–2012 period. Research findings show how exogenous interests are privileged over the common good when the affected citizens are not effectively involved in decision-making processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O atrito existente entre bráquetes e os fios ortodônticos é um fator importante a ser considerado quanto à eficiência do tratamento ortodôntico nas mecânicas de deslize. Em função disto, sempre se procurou maneiras de se diminuir os níveis de atrito durante a aplicação deste tipo de mecânica. Com o surgimento dos bráquetes autoligados, observou-se que uma das características principais destes dispositivos seria uma redução dos níveis de atrito entre os bráquetes e fios, e com isso poderia se obter um movimento de deslizamento eficiente com a aplicação de forças menores, quando comparado com o uso de bráquetes que tenham sistemas de amarração convencionais. O propósito deste trabalho foi comparar, por meio de ensaios laboratoriais, os níveis de atrito estático de um bráquete autoligado estético, de um bráquete autoligado metálico e dois tipos de bráquetes convencionais metálicos, com a utilização de fios ortodônticos de diferentes ligas, secção e diâmetros, para determinar quais bráquetes apresentam os menores coeficientes de atrito, em situações sem angulação, em angulações de primeira ordem e angulações de segunda ordem entre os diferentes fios e bráquetes. Os resultados demonstraram que os bráquetes autoligados apresentaram um atrito estático significativamente mais baixo nas situações onde não existiu angulação entre o fio e o bráquete e quando se utilizou fios de calibres menores e com material mais flexível, quando comparados com os bráquetes convencionais. O bráquete autoligado metálico apresentou maior atrito, semelhante aos bráquetes convencionais, com o uso dos fios de maior calibre, nas situações sem angulação. O bráquete autoligado metálico apresentou maior atrito estático que os bráquetes convencionais, nas situações de angulação, com o uso dos fios de maior calibre

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O atrito existente entre bráquetes e os fios ortodônticos é um fator importante a ser considerado quanto à eficiência do tratamento ortodôntico nas mecânicas de deslize. Em função disto, sempre se procurou maneiras de se diminuir os níveis de atrito durante a aplicação deste tipo de mecânica. Com o surgimento dos bráquetes autoligados, observou-se que uma das características principais destes dispositivos seria uma redução dos níveis de atrito entre os bráquetes e fios, e com isso poderia se obter um movimento de deslizamento eficiente com a aplicação de forças menores, quando comparado com o uso de bráquetes que tenham sistemas de amarração convencionais. O propósito deste trabalho foi comparar, por meio de ensaios laboratoriais, os níveis de atrito estático de um bráquete autoligado estético, de um bráquete autoligado metálico e dois tipos de bráquetes convencionais metálicos, com a utilização de fios ortodônticos de diferentes ligas, secção e diâmetros, para determinar quais bráquetes apresentam os menores coeficientes de atrito, em situações sem angulação, em angulações de primeira ordem e angulações de segunda ordem entre os diferentes fios e bráquetes. Os resultados demonstraram que os bráquetes autoligados apresentaram um atrito estático significativamente mais baixo nas situações onde não existiu angulação entre o fio e o bráquete e quando se utilizou fios de calibres menores e com material mais flexível, quando comparados com os bráquetes convencionais. O bráquete autoligado metálico apresentou maior atrito, semelhante aos bráquetes convencionais, com o uso dos fios de maior calibre, nas situações sem angulação. O bráquete autoligado metálico apresentou maior atrito estático que os bráquetes convencionais, nas situações de angulação, com o uso dos fios de maior calibre

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi analisar a expressão dos torques dentários em pacientes tratados com aparelhos ortodônticos fixos com bráquetes autoligados, utilizando tomografias computadorizadas. Para este estudo, foi selecionada uma amostra clínica de 10 pacientes, seguindo como critérios de inclusão, indivíduos que apresentavam dentição permanente e todos os dentes presentes, com apinhamento superior ou igual a 4 mm, tratados sem extração. Todos os pacientes foram tratados na clínica da pós-graduação em Ortodontia da Universidade Metodista de São Paulo, utilizando-se bráquetes autoligados Damon 2 ORMCO na prescrição padrão. Foram realizadas medições das inclinações dos dentes anteriores, de canino a canino, superiores e inferiores, realizadas por meio de imagens tomográficas obtidas em um tomógrafo computadorizado volumétrico NewTom, em seu modelo DVT-9000 (NIM Verona - Itália), obtidas em dois tempos: antes do início do tratamento ortodôntico (denominado de T1) e depois do tratamento ortodôntico, após a inserção do último fio de nivelamento, de calibre 0,019 x 0,025 de aço inoxidável(denominado de T2). Para auxílio destas mensurações, foi utilizado o software QR-DVT 9000 e após análise dos resultados foram aplicados testes estatíscos (testes "t" pareado e Dalberg) e observou-se que as inclinações dos dentes do segmento anterior aumentaram, principalmente, nos caninos e incisivos laterais superiores, incisivos centrais e laterais inferiores. Os dentes apresentaram valores de inclinação diferentes da prescrição, tanto no início quanto no final do tratamento, denotando a incapacidade do fio 0,019 x 0,025 de aço inoxidável em reproduzir os torques indicados na prescrição padrão utilizada neste presente estudo.(AU)