26 resultados para Experimentación formal
em Universidad Politécnica de Madrid
Resumo:
El siglo XIX fue un siglo dedicado a los grandes edificios públicos. Los teatros, las academias, los museos. Sin embargo la arquitectura durante el siglo XX se dedicará al estudio de la casa. Todos los usos y tipologías se verán fuertemente revisados pero el núcleo de todos los esfuerzos y verdadero inicio de la arquitectura moderna será la vivienda. A partir de ella todos los preceptos modernos se irán aplicando a los distintos programas. Nikolaus Pevsner señala a William Morris como el primer arquitecto moderno porque precisamente entendió que un arte verdaderamente social, en consonancia con su tiempo y la sociedad a la que sirve, ha de ocuparse de aquello que preocupe a la gente. Con la nueva situación de la vivienda en el centro de las motivaciones disciplinares el mueble adopta un nuevo protagonismo. En un momento avanzado de su carrera Marcel Breuer observa entre curioso e irónico cómo el mueble moderno había sido promocionado paradójicamente no por los diseñadores de muebles sino por los arquitectos1. La respuesta la da Le Corbusier en una de sus conferencias de 1931 recogida en Precisiones 2 cuando señala la reformulación del mobiliario como el "nudo gordiano" de cuya resolución pendía la renovación de la planta moderna. El Movimiento Moderno se había visto obligado a atacar este tema para poder avanzar en sus propuestas domésticas. El Movimiento Moderno se propuso solucionar los problemas de la vivienda y de una Europa en reconstrucción pero se exigía además ser capaz de aportar una visión propositiva de la vida moderna. No se trataba únicamente de resolver los problemas ya existentes sino que además había la necesidad autoimpuesta de anticipar la domesticidad del futuro. Para ello sus viviendas al completo, mueble e inmueble, debían de presentarse bajo esa nueva imagen. El manifiesto fundacional de la Deustcher Werkbund extendía el radio de acción del nuevo arquitecto desde la construcción de las ciudades a los cojines del sofá. Este mobiliario tenía la compleja misión de condensar sintéticamente todos esos ideales que la modernidad había traído consigo: abstracción, higiene, fascinación maquínica, confianza positivista en la ciencia o la expresión material optimizada. Objetos de la vida moderna, en palabras de Le Corbusier, susceptibles de suscitar un estado de vida moderno. Pocas sillas en la historia del diseño habrán acarreado tanta polémica y tanta disputa por su autoría como la sillas voladas de tubo de acero en sus diferentes versiones. Para entenderlo situémonos en el año 1927 a las puertas de la exposición "Die Wohnung" ("La vivienda") organizada por los maestros de la Bauhaus y dirigida por Mies van der Rohe en la ladera Weissenhof de Stuttgart. Muchos nombres célebres de la arquitectura mostraron en esa ocasión su personal propuesta para la vivienda moderna y los objetos que la habitan. Entre ellos los muebles con tubo de acero fueron una presencia constante en la exposición pero hubo una pieza que destacó sobre todas las demás por su novedad y audacia. La pieza en cuestión era el modelo de silla volada, esto es, sin apoyos posteriores y cuya rigidez estaba conferida al esfuerzo solidario de la estructura continua de tubo de acero y que terminaría por convertirse en el cruce de caminos de tres figuras de la disciplina arquitectónica: Marcel Breuer, Mies van der Rohe y Mart Stam. Cada uno de ellos desarrolló su propio modelo de silla volada en sus versiones MR por parte de Mies, L&C Arnold de Stam y el posterior modelo BR 33 de Marcel Breuer. Los tres, en algún momento de su vida reclamaron de uno u otro modo su autoría como objetos que les pertenecían intelectualmente. Estas sillas se convirtieron en la expresión máxima de uno de los ansiados anhelos de la modernidad, la propia materialidad del acero, en su versión optimizada, era la que había derivado en una forma completamente nueva de un objeto cotidiano y cuyo tipo estaba ya totalmente asumido. Los nuevos materiales y las nuevas formas de hacer habían irrumpido hasta en los utensilios domésticos, y habían sido capaces de reformularlos. El punto de partida para esta investigación es precisamente esa coincidencia de tres figuras de la arquitectura moderna, los tres de formación artesanal, en un mismo modelo de silla y en una misma fecha. Tres arquitectos que se habían encargado de asegurar que el movimiento moderno no reconocía problemas formales sino solamente de construcción, iban a coincidir en el mismo tiempo y lugar, precisamente en una misma forma, como si tal coincidencia hubiera sido producto de una voluntad de época. Sin embargo el interés de este estudio no radica en una indagación sobre la autoría sino sobre cómo un mismo objeto resulta ser propositivo e interesante en campos muy diversos y la forma en que cada uno lo hace suyo incorporándolo a su propia investigación proyectual. La silla, más allá de ser un objeto de diseño exclusivamente, trasciende su propia escala para situarse inmersa en un proceso de búsqueda y exploración a nivel conceptual, formal, constructivo y estructural en la arquitectura cada uno de ellos. En un momento en que el oficio del arquitecto está siendo intensamente redefinido considero especialmente pertinente esta investigación, que en definitiva versa sobre la forma distintiva en que el pensamiento arquitectónico es capaz de proyectarse sobre cualquier disciplina para reformularla. ABSTRACT The nineteenth century was a century dedicated to the great public buildings; theaters, schools or museums. However the architecture in the twentieth century was devoted to the study of housing. All uses and typologies were heavily revised but the focus of all efforts and true beginning of modern architecture was housing. From these beginnings all modern precepts were applied to the various programs. Nikolaus Pevsner points to William Morris as the first modern architect precisely because he understood that a truly social art in line with its time and the society it serves must deal with social concerns at that time. With the new housing situation at the center of disciplinary concerns furniture took on a new prominence. At an advanced stage of his career Marcel Breuer observed partly with curiosity, partly with irony how modern furniture had been promoted not by furniture designers but by architects. The answer is given by Le Corbusier in one of his lectures of 1931 collected in Precisions when he pointed the reformulation of furniture as the "Gordian knot" for the renewal of modern plan resolution. Modernism had been forced to confront this issue in order to advance their domestic approaches. Modernism not only put forward a solution to the problems of housing and a Europe under reconstruction but is also needed to be able to contribute to an exciting vision of modern life. Not only did solve existing problems but also it had the self-imposed necessity of anticipating future domesticity and to do their houses full, movable and immovable, they should be submitted under this new image. The founding manifesto of the Deutsche Werkbund extended the scope of the new architect from building cities to the couch cushions. This furniture had the complex mission of synthetically condensing all the ideals of modernity had brought with it: abstraction, hygiene, mechanization, positivist confidence in science or material expression. Objects of modern life, in words of Le Corbusier, were likely to give rise a state of modern life. Few chairs in design history have resulted in so much controversy and so much dispute over their invention as the various versions of cantilevered tubular steel chairs. To understand this let us place ourselves in 1927 at the gates of the exhibition "Die Wohnung" ("Housing") organized by the teachers of the Bauhaus and directed by Mies van der Rohe in Stuttgart Weissenhoflung. Many famous names in architecture at that time showed their personal proposals for modern housing and the objects that inhabit them. Amongst these objects, the steel tube furniture was a constant presence at the exhibition but there was a piece so audacious that it stood out from all the others. This piece in question was the cantilever model chair, that is, which had no further rear support and whose rigidity was attributed to the solidity of its continues structure of steel tube. This piece would eventually become the crossroads of three very different personalities: Mart Stam, Marcel Breuer and Mies van der Rohe. Each of them developed their own model of cantilevered chair in different versions; The MR model developed by Mies van der Rohe, the L&C by Arnold Stam and a later model BR 33 by Marcel Breuer, and the three, at some point in their lives demanded the authorship of its invention as objects that belonged to them intellectually. These chairs epitomized one of the coveted objects of modernity, steel material in its optimized version, was what had led to a completely new form of an everyday object whose this type was fully adopted on board in design. New materials and production methods had burst into world of household objects, and had been able to reformulate their design. The bold design then became a dark object of controversy. The starting point for this doctoral thesis is the concurrent invention of the same model of chair by three different figures of modern architecture. These three architects, who were responsible for ensuring that the modern movement considered construction rather than form as the main design consideration, were working in the same place and at the same point in time. It was almost as if these three architects were shaped by the culture of the time (Zeitgeist). However the focus of this study lies not in an investigation of responsibility of ownership but in the investigation fo how the same object can turn out to be purposeful and interesting in many different fields and the way in which each researcher makes it his own by developing his own project research. 1927, the year of their meeting, was a initiatory year in the career of our players. The chair, beyond being only a design object transcended its own scale and became immersed in a process of research and development on a conceptual, formal, structural and constructive level in the architectural approach of each of the architects. At a time when the role of the architect is being redefined intensely I consider this research, which ultimately concerns the distinctive way the architectural thought can be projected onto and reformulate any discipline, to be particularly relevant.
Resumo:
Este proyecto de investigación se desarrolla en el marco de la cooperación existente entre el Grupo de Ingeniería de Software Experimental (GrISE) de la Facultad de Informática de la Universidad Politécnica de Madrid, el Grupo de Investigación en Sistemas de Información (GISI) del Departamento de Desarrollo Productivo y Tecnológico de la Universidad Nacional de Lanús y el Grupo de Estudio en Metodologías de Ingeniería de Software (GEMIS) de la Facultad Regional Buenos Aires de la Universidad Tecnológica Nacional.
Resumo:
This paper describes an infrastructure for the automated evaluation of semantic technologies and, in particular, semantic search technologies. For this purpose, we present an evaluation framework which follows a service-oriented approach for evaluating semantic technologies and uses the Business Process Execution Language (BPEL) to define evaluation workflows that can be executed by process engines. This framework supports a variety of evaluations, from different semantic areas, including search, and is extendible to new evaluations. We show how BPEL addresses this diversity as well as how it is used to solve specific challenges such as heterogeneity, error handling and reuse
Resumo:
In order to satisfy the safety-critical requirements, the train control system (TCS) often employs a layered safety communication protocol to provide reliable services. However, both description and verification of the safety protocols may be formidable due to the system complexity. In this paper, interface automata (IA) are used to describe the safety service interface behaviors of safety communication protocol. A formal verification method is proposed to describe the safety communication protocols using IA and translate IA model into PROMELA model so that the protocols can be verified by the model checker SPIN. A case study of using this method to describe and verify a safety communication protocol is included. The verification results illustrate that the proposed method is effective to describe the safety protocols and verify deadlocks, livelocks and several mandatory consistency properties. A prototype of safety protocols is also developed based on the presented formally verifying method.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
Muchas instituciones de educación superior de todo el mundo llevan tiempo dinamizando sus enseñanzas a fin de transmitir a sus egresados las nuevas competencias que demanda la sociedad del siglo XXI. Afortunadamente en España también existe una fuerte apuesta por la flexibilización de la educación superior, que se materializa en iniciativas tales como la competición internacional MotoStudent.
Resumo:
La presente tesis doctoral indaga en los procesos y hechos arquitectónicos que nacen e inciden en la sensibilidad fenomenológica, utilizando para ello los hallazgos que una disciplina como la danza puede aportar. Esta arquitectura de raíz fenomenológica no vendría definida por una geometría concreta, una cierta tecnología, un tipo o un sistema, sino más bien por la implicación del cuerpo a cualquier nivel. Nos parece así necesario explorar la inmersión en los fenómenos espacio temporales: la experiencia del contacto del espacio de nuestro cuerpo con la esencia espacial que está fuera del límite de nuestra piel. Es aquí donde la danza- y el movimiento en general- aparece como una disciplina clave, como un laboratorio donde investigar los conceptos que nos interesan con relación al sistema cuerpo y espacio. La texto se estructura según seis bloques dedicados respectivamente a la actitud, la atmósfera, la naturaleza, la intimidad/ el tacto, la fantasía y por último el espacio acústico/ el tiempo. En cada uno de ellos se estudian comparativamente- entre danza y arquitectura- estos conceptos, enmarcándolos además en un intervalo temporal concreto. En la primera parte, hablaremos de cómo en el sistema cuerpo-entorno inciden las afecciones bidireccionales de este sistema, es decir, cómo el cuerpo afecta al entorno, a través del gesto o acción (actitud) y cómo el entorno afecta al cuerpo bien sea mediante medios artificiales construidos ex profeso o por fenómenos naturales (atmósfera y naturaleza). Y en la segunda, la comparación se realizará a partir de la inmersión en el medio espacial- la experiencia del bailarín- y más centrada en los procesos conceptuales y gráficos de ambas disciplinas (la intimidad/ el tacto; la fantasía; y el espacio acústico/ el tiempo). A través de esta exploración revelaremos la genealogía de este territorio compartido entre arquitectura y danza, y veremos cómo se pueden ampliar los procesos creativos del proyecto arquitectónico, dotándolos de nuevas vías de experimentación. Las hipótesis de trabajo que confirmaremos serán las siguientes: - La delimitación de los objetos y entornos queda redefinida- o indefinida- según una permeabilidad y continuidad total que evidencia la pobreza de una simplista reducción a lo visual y en todo caso a quedarse en lo superficial de lo percibido. El cuerpo- el objeto- está en continuidad con su entorno formando diversos ensamblajes a lo largo del tiempo. Los límites (variables) se someten a continua negociación. - El espacio del cuerpo no es sólo físico sino también imaginativo y las redes tensadas en los ensamblajes espaciales no son sólo topológicas sino también pertenecientes a la fantasía. - El tiempo interviene activamente en los procesos de generación de la novedad lo que implica un cierto grado de incertidumbre (nos referimos a las potencialidades latentes aún no desveladas) activo en todo momento. - El cartografiado o trazado de mapas, la notación de los eventos, es necesaria para que éstos puedan incorporarse al proceso proyectual arquitectónico. No existe punto de vista externo para trazarlos, formamos parte de su misma sustancia. - La arquitectura se ocupará según esto de revelar y diferenciar trazas (fenómenos) en el ensamblaje espacial actual que despliega nuestro cuerpo en cada momento. Si bien estas hipótesis no son nuevas, sí pensamos que el presente estudio las sintetiza y las condensa y pone de manifiesto el valor de la danza y los procesos coreográficos para: a)- revelarlas con naturalidad; b)- ampliar las herramientas proyectuales. La metodología proyectual arquitectónica en muchas ocasiones cuenta con vacíos instrumentales para abordar estas hipótesis y es aquí donde la danza muestra su utilidad; c)- mostrar una expansión de las posibilidades aún por explorar que aparece en el territorio compartido de ambas. Entender esto incide directamente en nuestra forma de ver el espacio y el tiempo a través del conocimiento del cuerpo (en movimiento) y por tanto en nuestras intervenciones; d)- constatar cómo los acercamientos que tradicionalmente se han tenido a la arquitectura desde presupuestos fenomenológicos, se quedan cortos a la hora de trabajar con complejidad. Aparece así la vía de trabajo asociada a una fenomenología expandida, que se expondría en las conclusiones de la investigación.
Resumo:
En el presente trabajo de investigación se ha analizado la presencia de la Esgrima como materia de enseñanza dentro de diversas Instituciones educativas formales de Madrid, abarcando un rango temporal de 225 años (1725-1950). Para la realización de la investigación se elaboró un esquema de trabajo basado en la metodología de la investigación histórica, la historiografía. La búsqueda de la información se llevó a cabo, fundamentalmente en el Archivo Histórico Nacional el Archivo General de la Administración, el Archivo Regional de Madrid, el Archivo General de la Universidad Complutense de Madrid, el Archivo del Real Conservatorio Superior de Música de Madrid, el Archivo General de Palacio, el Archivo de la Villa y la Biblioteca Nacional. La investigación presentada abarca cinco Instituciones educativas en las que se estudia la presencia de la Esgrima como enseñanza formal, siendo estas el Real Seminario de Nobles de Madrid, la Escuela Central de Profesores y Profesoras de Gimnástica, el Real Conservatorio de Música y Declamación y los Institutos de Segunda Enseñanza del Cardenal Cisneros y de San Isidro. Se analizaron las diferentes Constituciones de formación, Planes de Estudios, Reglamentos Interinos de funcionamiento, Leyes de fundación, libros, Programas de asignaturas y todos aquellos documentos, tanto oficiales como internos de cada uno de los Centros tratados. Así mismo, se estudiaron las figuras de los Maestros encargados de impartir la Esgrima como materia formal en las diversas Instituciones, alcanzando la mayor relevancia D. Manuel Antonio de Brea, D. Francisco de la Macorra y Guijeño, D. Ángel Lancho Martín de la Fuente, D. Afrodisio Aparicio Aparicio y D. José Carbonell. De la investigación realizada se concluye la presencia de la Esgrima como una materia perfectamente sistematizada en cada uno de las Instituciones analizadas así como la importancia que alcanzaba la figura del Maestro de Esgrima en todas ellas, siendo en algunos casos “Maestro Mayor del Reyno” y en otros convirtiéndose en Catedráticos de Esgrima, al tiempo que todos ellos contaban con una titulación que les capacitaba para el ejercicio de su profesión. Así mismo encontramos la presencia de la mujer en una de las Instituciones, el Real Conservatorio de Música y Declamación, con los mismos derechos que sus compañeros varones para matricularse y estudiar la Esgrima. Los Maestros estudiados, fundamentalmente D. Ángel Lancho, D. Afrodisio Aparicio y D. José Carbonell, contribuyeron a popularizar la Esgrima y a su desarrollo como deporte, organizando torneos para sus alumnos y compitiendo ellos mismos en multitud de asaltos. A lo largo de los 225 años que abarca esta investigación, la Esgrima evolucionó de Destreza a Habilidad y más tarde a Deporte, sin perder en ningún momento su importancia, extendiéndose a sectores de la sociedad a los que nunca habría llegado de no ser por la labor de los Maestros de Esgrima encargados de su formación. ABSTRACT. In this research work, the presence of Fencing as an educational subject within different formal educational Institutions in Madrid, over a period of 225 years (1725-1950), has been analysed. In order to carry out this research, a work schedule was drawn up, based on the methods of the historical research, historiography. The search for the information was primarily carried out in the Archivo Historico Nacional, the Archivo General de la Administración, the Archivo Regional of Madrid, the Archivo General de la Universidad Complutense de Madrid, the Archivo del Real Conservatorio Superior de Música of Madrid, the Archivo General de Palacio, the Archivo de la Villa and the Biblioteca Nacional. The research presented covers five educational Institutions, where the presence of Fencing as a formal education is studied. These Institutions are: the Real Seminario de Nobles de Madrid, the Escuela Central de Profesores y Profesoras de Gimnástica, the Real Conservatorio de Música y Declamación and the Cardenal Cisneros and the San Isidro Secondary Schools. The different Academic formation, Syllabuses, Temporary working Regulations, founding Law, books, subject Plans and all the documents, official or internal, of each of the Centres dealt with, were analysed. Moreover, the roles of the Masters in charge of teaching Fencing as a formal subject in different Institutions were studied, and Mr. Manuel Antonio de Brea, Mr. Francisco de la Macorra y Guijeño, Mr. Ángel Lancho Martín de la Fuente, Mr. Afrodisio Aparicio Aparicio and Mr. José Carbonell were the most prominent. The conclusion of the research carried out, is that the presence of Fencing is a subject perfectly organised in each one of the Institutions analysed, as well as the importance that the role of the Fencing Master reached in every Institution, in some cases being “Maestro Mayor del Reyno” and in others becoming Fencing Professors, while all of them had a qualification that enabled them to practice their profession. Similarly, we can find the presence of women in one of the Institutions, the Real Conservatorio de Música y Declamación, where they had the same rights as her male classmates to enrol and study Fencing. The Fencing Masters who were studied, principally Mr. Ángel Lancho, Mr. Afrodisio Aparicio and Mr. José Carbonell, all contributed to making Fencing popular and also towards its development as a sport, by organising tournaments for their students and by competing themselves in a number of assaults. Over the 225 years which the research covers, Fencing evolved from Skill to Ability and later on to a Sport, without, at any moment, losing its importance, spreading to parts of society that it would never have reached if it were not for the work of the Fencing Masters in charge of teaching it.
Resumo:
Ponencia sobre el dibujo de arquitectura como medio de investigación.
Resumo:
Se expone brevemente el problema matemático de homogeneización, en sus facetas: homogeneización en el dominio y en el contorno. Con respecto a esta última, se introducen los conceptos de talla crítica y problema límite. Los resultados obtenidos se aplican a un caso particular representado por un cilindro con condiciones de borde periódicas. Se comprueba la validez del desarrollo teórico mediante una experimentación numérica utilizando elementos finitos 3-D observándose la velocidad de convergencia que se obtiene en relación con el caso límite. Finalmente se comenta la posibilidad de utilizar la técnica de homogeneización para obtener unos criterios hacia un diseño eficiente y óptimo de los resultados de las barras corrugadas en el hormigón armado.
Resumo:
El importante desarrollo tecnológico e industrial surgido especialmente durante la segunda mitad del siglo pasado ha eliminado las históricas limitaciones técnicas en el ámbito de los pro-? yectos arquitectónicos, desembocando en la situación actual en la que cualquier planteamiento formal puede ser analizado desde un punto de vista estructural, concluyéndose por tanto que ha desaparecido la barrera del análisis en lo que al desarrollo de un proyecto arquitectónico se refiere. En la actualidad, al igual que a finales del siglo XIX, nos encontramos en un periodo de transi-? ción, y también, como entonces, es la tecnología la que orienta el cambio. No la tecnología de los nuevos materiales (hormigón y acero) como sucedía tras la revolución industrial sino que es la nueva tecnología digital aplicada a los sistemas de diseño, cálculo y fabricación la que están siendo el motor de la actual transformación. Hoy no es tanto el paradigma mecanicista el que prevalece en muchos casos en la concepción de los edificios sino que, nuevos elementos como la tecnología digital integrada está cambiando la forma de diseñar y concebir el entorno cons-? truido. Ante este contexto cabría plantearse las siguientes cuestiones: ¿Puede el diseño paramétrico y la tecnología CAD-?CAM-?CAE en conjunción con los programas actuales de análisis estructural basados en el Método de los Elementos Finitos hacer más sencilla la construcción de estructu-? ras ligeras y eficientes hoy en día? ¿Puede la tecnología digital ayudar a ampliar el abanico for-? mal a la hora de diseñar edificios y a la vez permitir el uso de sistemas estructurales racionales que optimicen el consumo de materiales bajo dichas circunstancias?
Resumo:
Resumen: Muchas instituciones de educación superior de todo el mundo llevan tiempo dinamizando sus enseñanzas a fin de transmitir a sus egresados las nuevas competencias que demanda la sociedad del siglo XXI. Afortunadamente en España también existe una fuerte apuesta por la flexibilización de la educación superior, que se materializa en iniciativas tales como la competición internacional MotoStudent. Abstract: A lot of educational superior institutions around the world have been dynamized their teaching methods trying to transmit to their graduates the new abilities that demands the XX’s century society. Fortunately in Spain it also exist a hard bet for the flexibility of the high education, materialized in initiatives as the international “MotoStudent” contest.
Resumo:
habilidades de comprensión y resolución de problemas. Tanto es así que se puede afirmar con rotundidad que no existe el método perfecto para cada una de las etapas de desarrollo y tampoco existe el modelo de ciclo de vida perfecto: cada nuevo problema que se plantea es diferente a los anteriores en algún aspecto y esto hace que técnicas que funcionaron en proyectos anteriores fracasen en los proyectos nuevos. Por ello actualmente se realiza un planteamiento integrador que pretende utilizar en cada caso las técnicas, métodos y herramientas más acordes con las características del problema planteado al ingeniero. Bajo este punto de vista se plantean nuevos problemas. En primer lugar está la selección de enfoques de desarrollo. Si no existe el mejor enfoque, ¿cómo se hace para elegir el más adecuado de entre el conjunto de los existentes? Un segundo problema estriba en la relación entre las etapas de análisis y diseño. En este sentido existen dos grandes riesgos. Por un lado, se puede hacer un análisis del problema demasiado superficial, con lo que se produce una excesiva distancia entre el análisis y el diseño que muchas veces imposibilita el paso de uno a otro. Por otro lado, se puede optar por un análisis en términos del diseño que provoca que no cumpla su objetivo de centrarse en el problema, sino que se convierte en una primera versión de la solución, lo que se conoce como diseño preliminar. Como consecuencia de lo anterior surge el dilema del análisis, que puede plantearse como sigue: para cada problema planteado hay que elegir las técnicas más adecuadas, lo que requiere que se conozcan las características del problema. Para ello, a su vez, se debe analizar el problema, eligiendo una técnica antes de conocerlo. Si la técnica utiliza términos de diseño entonces se ha precondicionado el paradigma de solución y es posible que no sea el más adecuado para resolver el problema. En último lugar están las barreras pragmáticas que frenan la expansión del uso de métodos con base formal, dificultando su aplicación en la práctica cotidiana. Teniendo en cuenta todos los problemas planteados, se requieren métodos de análisis del problema que cumplan una serie de objetivos, el primero de los cuales es la necesidad de una base formal, con el fin de evitar la ambigüedad y permitir verificar la corrección de los modelos generados. Un segundo objetivo es la independencia de diseño: se deben utilizar términos que no tengan reflejo directo en el diseño, para que permitan centrarse en las características del problema. Además los métodos deben permitir analizar problemas de cualquier tipo: algorítmicos, de soporte a la decisión o basados en el conocimiento, entre otros. En siguiente lugar están los objetivos relacionados con aspectos pragmáticos. Por un lado deben incorporar una notación textual formal pero no matemática, de forma que se facilite su validación y comprensión por personas sin conocimientos matemáticos profundos pero al mismo tiempo sea lo suficientemente rigurosa para facilitar su verificación. Por otro lado, se requiere una notación gráfica complementaria para representar los modelos, de forma que puedan ser comprendidos y validados cómodamente por parte de los clientes y usuarios. Esta tesis doctoral presenta SETCM, un método de análisis que cumple estos objetivos. Para ello se han definido todos los elementos que forman los modelos de análisis usando una terminología independiente de paradigmas de diseño y se han formalizado dichas definiciones usando los elementos fundamentales de la teoría de conjuntos: elementos, conjuntos y relaciones entre conjuntos. Por otro lado se ha definido un lenguaje formal para representar los elementos de los modelos de análisis – evitando en lo posible el uso de notaciones matemáticas – complementado con una notación gráfica que permite representar de forma visual las partes más relevantes de los modelos. El método propuesto ha sido sometido a una intensa fase de experimentación, durante la que fue aplicado a 13 casos de estudio, todos ellos proyectos reales que han concluido en productos transferidos a entidades públicas o privadas. Durante la experimentación se ha evaluado la adecuación de SETCM para el análisis de problemas de distinto tamaño y en sistemas cuyo diseño final usaba paradigmas diferentes e incluso paradigmas mixtos. También se ha evaluado su uso por analistas con distinto nivel de experiencia – noveles, intermedios o expertos – analizando en todos los casos la curva de aprendizaje, con el fin de averiguar si es fácil de aprender su uso, independientemente de si se conoce o no alguna otra técnica de análisis. Por otro lado se ha estudiado la capacidad de ampliación de modelos generados con SETCM, para comprobar si permite abordar proyectos realizados en varias fases, en los que el análisis de una fase consista en ampliar el análisis de la fase anterior. En resumidas cuentas, se ha tratado de evaluar la capacidad de integración de SETCM en una organización como la técnica de análisis preferida para el desarrollo de software. Los resultados obtenidos tras esta experimentación han sido muy positivos, habiéndose alcanzado un alto grado de cumplimiento de todos los objetivos planteados al definir el método.---ABSTRACT---Software development is an inherently complex activity, which requires specific abilities of problem comprehension and solving. It is so difficult that it can even be said that there is no perfect method for each of the development stages and that there is no perfect life cycle model: each new problem is different to the precedent ones in some respect and the techniques that worked in other problems can fail in the new ones. Given that situation, the current trend is to integrate different methods, tools and techniques, using the best suited for each situation. This trend, however, raises some new problems. The first one is the selection of development approaches. If there is no a manifestly single best approach, how does one go about choosing an approach from the array of available options? The second problem has to do with the relationship between the analysis and design phases. This relation can lead to two major risks. On one hand, the analysis could be too shallow and far away from the design, making it very difficult to perform the transition between them. On the other hand, the analysis could be expressed using design terminology, thus becoming more a kind of preliminary design than a model of the problem to be solved. In third place there is the analysis dilemma, which can be expressed as follows. The developer has to choose the most adequate techniques for each problem, and to make this decision it is necessary to know the most relevant properties of the problem. This implies that the developer has to analyse the problem, choosing an analysis method before really knowing the problem. If the chosen technique uses design terminology then the solution paradigm has been preconditioned and it is possible that, once the problem is well known, that paradigm wouldn’t be the chosen one. The last problem consists of some pragmatic barriers that limit the applicability of formal based methods, making it difficult to use them in current practice. In order to solve these problems there is a need for analysis methods that fulfil several goals. The first one is the need of a formal base, which prevents ambiguity and allows the verification of the analysis models. The second goal is design-independence: the analysis should use a terminology different from the design, to facilitate a real comprehension of the problem under study. In third place the analysis method should allow the developer to study different kinds of problems: algorithmic, decision-support, knowledge based, etc. Next there are two goals related to pragmatic aspects. Firstly, the methods should have a non mathematical but formal textual notation. This notation will allow people without deep mathematical knowledge to understand and validate the resulting models, without losing the needed rigour for verification. Secondly, the methods should have a complementary graphical notation to make more natural the understanding and validation of the relevant parts of the analysis. This Thesis proposes such a method, called SETCM. The elements conforming the analysis models have been defined using a terminology that is independent from design paradigms. Those terms have been then formalised using the main concepts of the set theory: elements, sets and correspondences between sets. In addition, a formal language has been created, which avoids the use of mathematical notations. Finally, a graphical notation has been defined, which can visually represent the most relevant elements of the models. The proposed method has been thoroughly tested during the experimentation phase. It has been used to perform the analysis of 13 actual projects, all of them resulting in transferred products. This experimentation allowed evaluating the adequacy of SETCM for the analysis of problems of varying size, whose final design used different paradigms and even mixed ones. The use of the method by people with different levels of expertise was also evaluated, along with the corresponding learning curve, in order to assess if the method is easy to learn, independently of previous knowledge on other analysis techniques. In addition, the expandability of the analysis models was evaluated, assessing if the technique was adequate for projects organised in incremental steps, in which the analysis of one step grows from the precedent models. The final goal was to assess if SETCM can be used inside an organisation as the preferred analysis method for software development. The obtained results have been very positive, as SETCM has obtained a high degree of fulfilment of the goals stated for the method.
Resumo:
La fragmentación espacial de una ciudad, que será el principal enfoque de la presente Tesis, ocurre cuando una entidad pequeña se ve obligada a adecuar sus relaciones ante la inminente presencia de un entorno urbano de mayor peso que se aproxima y densifica. Este tipo de fragmentación se analizará tomando en cuenta tres factores (especulación, desorganización y falta de protección) que moldean el desarrollo de procesos urbanísticos modernos en las grandes metrópolis Latinoamericanas, particularmente en la Ciudad de México. La Ciudad de México tuvo un desarrollo altamente competitivo, que ha sido también el catalizador de un largo y sostenido crecimiento urbano. Con el pasar del tiempo, la capital ha sobrepasado las expectativas de los más visionarios. El estudio detallado del asentamiento de Tacubaya (el cual conforma una parte dinámica de la Ciudad de México), permitirá al lector evaluar el extravagante crecimiento que ocurre en la Ciudad de México y los asentamientos que lo rodean, en la primera mitad del siglo XX. Tacubaya, así como muchos de los pequeños poblados preexistentes que se ubicaban en las afueras de la gran urbe, fue alcanzado y engullido por la mancha urbana, sufriendo importantes cambios en su núcleo urbano. Sin embargo, partes de esta antigua centralidad han persistido junto con una parte de los elementos urbanos que la estructuraban; monumentos y riquezas históricas, los cuales han facilitado la reinvención de su centro urbano, sobreviviendo tanto a los abates del tiempo como a las oleadas de nuevos pobladores. El lugar que permanece es un centro urbano sumamente fragmentado, permeado por: una incesante superposición de tejidos y elementos estructuradores olvidados, poblaciones flotantes y de paso que desestabilizan las zonas residenciales, estratos sociales cada vez más apartados. Pensaríamos que las circunstancias que envuelven la demarcación la han dejado en caos, sin embargo, para la sorpresa de muchos, Tacubaya se sigue adaptando a pesar de todos los obstáculos. ABSTRACT In urbanism, the type of spatial fragmentation, that will be the main focus of this Thesis, occurs when a stronger and denser environment takes over a smaller entity, forcing it to adapt its functional relations. This type of fragmentation will be analyzed taking into account three specific factors (speculation, disorganization, and lack of protection) that mold the development of modern urbanistic processes in large Latin American cities, particularly in Mexico City. Mexico City had a highly competitive and bright development, which served as catalyst in a long and sustained urban growth. With the passing of time, the capital has outgrown the measures, previsions and administrative limits created by the government and its visionaries. The detailed study of the Tacubaya settlement (which conforms a vibrant part of Mexico City) will allow the reader to appreciate the exceptional and rare growth that occurs in Mexico City and in the settlements that surround it, in the first half of the 20th century. Tacubaya as well as many other small preexisting settlements located on the outskirts of the city, has been engulfed by the urban expansion suffering important changes in its urban core. Parts of the ancient centrality have persisted along with its structural urban elements, due mainly to monuments and other historical entities that have facilitated the reinvention of the downtown area, helping it survive not only the passing of time, but also the incrementing population. The city that now exists is fragmented beyond recognition. Tacubaya is permeated by an endless fabric overlay created by forgotten structural elements, floating populations that affect the residential zones, and a polarized society that diverges with every passing day. We may think that the circumstances that surround the city have left it in shambles; however, to the surprise of many, Tacubaya is still adapting in spite of all the obstacles.