30 resultados para Cosmogonías Antiguas
em Universidad Politécnica de Madrid
Resumo:
Actuación en zonas antiguas de pueblos y ciudades
Resumo:
La rehabilitación de edificios, a pesar de ser una estrategia muy sostenible, ha estado restringida a una pequeña proporción de las intervenciones desarrolladas en España en las últimas décadas. Paralelamente a la rápida expansión de nuevos tejidos alrededor de la ciudad, los centros históricos han sufrido a menudo un proceso gradual de degradación. Esta investigación se ha llevado a cabo con el propósito de potenciar la importancia de los centros históricos en las ciudades contemporáneas. Se centra en el estudio de nuevas herramientas para la rehabilitación de edificios residenciales históricos en el noroeste de España, en el contexto de un clima atlántico templado. La revitalización de los cascos históricos podría suponer el aumento de la disponibilidad de viviendas en áreas donde la recuperación de la diversidad social es necesaria y donde una mayor densidad demográfica puede ser beneficiosa. El interés en Santiago de Compostela responde a tres motivos principales: el rol dominante de la ciudad histórica en el contexto urbano, la vasta extensión de la ciudad medieval y el sólido apoyo institucional, que hace que sea posible un desarrollo profundo de la actividad rehabilitadora. Cuanto más antiguas son las construcciones, más delicado y necesario es el proceso de modernización y más especializado es el conocimiento técnico requerido. En términos de estándares de confort y eficiencia energética, las viviendas históricas son a veces ejemplos de mal funcionamiento, aunque muy a menudo tienen un potencial mayor que el de construcciones más modernas. Esta presentación comienza con la identificación de las características principales del caserío tradicional, ligadas a su comportamiento medioambiental. Continúa con el análisis de la normativa vigente y del marco sociodemográfico. A esto le sigue el desarrollo de las estrategias de rehabilitación sostenible y la consideración de sus implicaciones económicas. Por último, se discuten posibles áreas de aplicación y se realiza una síntesis de los resultados principales.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
Las estructuras mixtas tienen como filosofía una disposición óptima de los materiales que las forman tanto por su resistencia, aspecto constructivo, funcional y formal. Habitualmente estos materiales serán acero y hormigón que trabajan de forma solidaria gracias a la conexión dispuesta en la interfaz entre materiales y que transmite el flujo rasante entre ambos permitiendo así que la sección trabaje de un modo solidario. Tanto el hormigón como el acero, pueden formar parte de las secciones mixtas de diferentes maneras. En el caso del acero, se tratará primordialmente de acero estructural en la zona inferior de la sección, pero también se encontrará embebido en el hormigón en forma de armadura pasiva, o en forma de armaduras activas, aunque en el siguiente trabajo nos centraremos más en los casos en que la losa se refuerce mediante armadura pasiva. Además, estudiaremos casos en los que las distintas chapas que forman la sección metálica, puedan tener diferentes resistencias, tratándose entonces de secciones metálicas híbridas. Por otra parte, el hormigón no sólo estará presente en las secciones como hormigón vertido “in situ” sino que también existirán casos a los que llegaremos más adelante en el que se usen losas de hormigón prefabricado, que incluso puedan trabajar de encofrado perdido del hormigón “in situ” pasando a formar, los dos tipos, parte de la losa de hormigón bien superior o inferior según la tipología de puente empleado. La acción mixta, será estudiada en este trabajo en su aplicación en puentes y viaductos, pero también tiene una profunda aplicación en el ámbito de la edificación en base a sus peculiaridades, mínimos pesos a bajo coste, apropiada rigidez, monolitismo y arriostramiento sin fragilidad, grandes posibilidades de empleo de la prefabricación, rapidez de ejecución, mínimos cantos con bajo coste, etc. También se puede usar en una actividad creciente y cada vez de mayor importancia, como es el refuerzo de antiguas estructuras metálicas o de hormigón, al transformarlas en mixtas, aumentando así su capacidad portante. La construcción mixta ofrece las máximas posibilidades de empleo racional de los materiales básicos de la construcción moderna, a saber el hormigón y el acero, así como la creación de formas, procesos, etc., en un campo en el que a pesar de todos los logros alcanzados sigue en evolución y alcanza nuevos límites cada día.
Resumo:
La presente tesis doctoral trata sobre el contenido de dos antiguas valijas de viaje. En su interior se encontró una serie de documentos originales, pertenecientes al arquitecto Julio Agustín Vilamajó Echaniz, quien nació en Montevideo en 1894 y murió con apenas 53 años, luego de una reconocida y rica trayectoria profesional y docente. Destacado y admirado en su país, Vilamajó alcanzó prestigio internacional luego de haber sido designado para integrar el equipo consultor proyectista de la Sede de las Naciones Unidas en Nueva York. El contenido de sus valijas -legado entregado a la Facultad de Arquitectura 63 años después de su muerte- se constituye en la fuente primaria de esta investigación y en el motivo principal de la misma: la tesis intentará comprender su valor instrumental como representación de la práctica proyectual de Vilamajó, y del hombre-arquitecto mismo. Los registros encontrados en las Valijas son íntimos, y a la vez constituyen en su conjunto un patrimonio que se transmite a nuestras generaciones: ellos dan cuenta de una práctica proyectual prolífica y compleja, que nos permitirá percibir procedimientos intrínsecos a la disciplina. Indagar, buscar con ansiedad y curiosidad al interior de este ámbito cerrado y disperso de información, nos pone en condiciones inmejorables de realizar hallazgos: dibujos, cartas, fotografías o anotaciones que se destacan del resto, asoman del conjunto y reclaman ser puestos en un lugar de privilegio para la investigación. Estos hallazgos son considerados como detonantes en el sentido de su calidad de suceso sorpresivo; como tal, cada uno se convierte en desencadenante de una línea de investigación parcial dentro del marco de la tesis. La sorpresa es generada por anomalía o por novedad, y determina la duda sobre un evento conocido o sobre una creencia colectiva relativa a Vilamajó. Esa duda deberá apaciguarse a través de la observación y la indagación de elementos asociados -internos o externos a las Valijas-, buscando encontrar una posible explicación que responda a la incertidumbre generada. Las líneas de investigación desencadenadas por los detonantes refieren a proyectos, obras o eventos en la vida de Vilamajó, y su desenlace nos permitirá alcanzar nuevos conocimientos sobre el pensamiento y la práctica proyectual del arquitecto: el Almacén Anexo a la Confitería La Americana; su anteproyecto para el concurso del Palacio Legislativo de Quito; la beca de estudio a Europa por la obtención del Gran Premio y la influencia de España; las obras en Villa Serrana; su participación en el grupo consultor para el proyecto de la Sede de las Naciones Unidas en Nueva York; las influencias de Le Corbusier; la obra conjunta con el escultor Antonio Pena; su incursión en la tecnología de la prefabricación; el proyecto para su propia vivienda; los estudios urbanos para Punta del Este; las reproducciones de sus espacios imaginarios; y su afición a los dibujos animados. Luego de realizar un proceso de agrupamiento de la información en capítulos vinculados a los detonantes, y de incorporar los hallazgos al conocimiento existente de las prácticas proyectuales y la obra de Vilamajó, estaremos construyendo un nuevo contexto sintético, y procediendo a componer, desde los caminos proyectuales desarrollados, un nuevo todo: la figura renovada de Vilamajó. Este proceso permitirá comprender con mayor exactitud cuáles fueron los procedimientos que guiaron a Vilamajó en su práctica proyectual, en qué soporte ideológico y teórico se basó al momento de hacer arquitectura, y finalmente, a modo de síntesis, profundizar en la forma de operar de un arquitecto de principios del siglo XX. De cada una de las indagaciones detonadas por los documentos sorpresivos podemos alcanzar algunas explicaciones que incorporan nuevos conocimientos o nuevas lecturas a lo ya conocido, a manera de caminos que nos llevan -en primer lugar- a reconocer y resaltar aspectos parciales de la producción proyectual de Vilamajó, y -al mismo tiempo- a percibir entramados de una actividad de condición compleja. Vilamajó actuó en un momento histórico que transcurrió entre la práctica de la composición como forma de acceder a un producto unitario y el proyecto moderno como una vía hacia una realidad mucho mejor para el ser humano. El arquitecto Vilamajó nos deja su visión del proceder en la disciplina, constituyéndose en un verdadero relato de la práctica arquitectónica, donde la prefiguración de los espacios y las formas es a la vez específica y universal. Las Valijas se constituyen así en su legado, recibido en un momento de la disciplina donde todo se expande, se extiende, se hace más complejo y a la vez más atractivo e incierto, y donde las certezas parecen haberse desvanecido.
Resumo:
La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.
Resumo:
El hombre inicialmente se acerca al recurso hídrico para su aprovechamiento, pero no comprende su origen. También se asombra ante las catástrofes generadas por el temporal o por el efecto vivificante del agua sobre los cultivos. Surgen cosmogonías acuáticas y con frecuencia, dioses de las fuentes o de los manantiales, así como de la lluvia; tal es el caso de Kon, entre los incas, o Tlaloc entre los aztecas, y Chac entre los mayas, por poner algún ejemplo
Resumo:
La tesis tiene por objeto analizar desde la disciplina arquitectónica la forma de habitar de Teresa de Ávila desvelando los vínculos que se establecen, a partir de la intimidad, entre interioridad y exterioridad a través de su forma de la mirada. Se tratará de reproducir su mirada a través de las huellas que nos han llegado hasta la contemporaneidad. En Santa Teresa se dan tres escalas de lo ?interior-íntimo? a través de las cuales realiza sus desplazamientos y en las que se organiza la tesis: los tres grados del adverbio ?dentro?: INTRA (adverbio ?dentro?) - INTERIOR (comparativo de superioridad ?más dentro que?) - INTIMUS (superlativo ?lo más adentro de todo?). Éstas, permiten realizar una investigación transversal que abarca desde la gran escala de la lógica de las fundaciones, hasta el espacio más íntimo del Castillo Interior pasando por los ?conventos itinerantes? utilizados en sus viajes, las ocupaciones y el reciclaje de antiguas casas para las nuevas fundaciones, o las celdas mínimas de sus nuevas fundaciones. INTRA (dentro) En el primer capítulo se realiza una aproximación a la mirada de Teresa de Jesús desde la forma de habitar en territorio: las andaduras. La lógica de los desplazamientos teresianos por el territorio viene definida por el tiempo monástico. Teresa de Ávila se desplazaba en sus viajes utilizando carros y coches en los que un habitar que nómada los transformaba en conventos itinerantes mediante un uso de los tiempos, los silencios y los objetos característicos del habitar monástico. Se realiza en primer lugar un análisis territorial de las andaduras que recorren los espacios más característicos de Castilla para posteriormente extraer el sentido del viaje como experiencia y su forma de la mirada ante el territorio. INTERIOR (más dentro que) En el segundo capítulo, ahondando en la interioridad, aparecen los conventos como espacios de lo doméstico y la celda como núcleo de lo interior. La lógica de las Fundaciones desvela una relación territorial de cada una de ellas. Esta red territorial, a modo de rizoma, permitía comunicaciones y conexiones intensas mientras que al mismo tiempo su situación dentro de las ciudades garantizaba lugares de silencio y desierto. Son espacios para el silencio a la vez que islas y archipiélagos interconectados. Posteriormente se analiza la celda como el espacio de la intimidad: la alcoba. Se trata de establecer las relaciones entre el espacio y el cuerpo en el habitar, la búsqueda de silencio y el movimiento hacia la interioridad a través del vacío de los espacios. INTIMUS (lo más adentro de todo) La investigación se introduce, por último en el espacio de la intimidad, lo más profundo del habitar. La metáfora es la forma de desvelar y transmitir ese paisaje interior. Se trata de un acto creativo en el que podemos acercamos a los objetos que se escapan de la experiencia cotidiana para sugerirlos sin la pretensión de agotar totalmente todo su significado. Desde este punto de vista, se estudian las distintas metáforas que expresan la experiencia mística de Teresa de Ávila. El castillo, la montaña, el jardín, el vacío, el corazón aparecen como lugares del habitar, como diferentes espacios o moradas de la intimidad. Teresa de Jesús, escribe no sólo para transmitir ese paisaje interior, sino también para examinarlo y comprenderlo a través de la razón mística o razón poética. Ésta vía de pensamiento se transforma de método de aprehensión de la realidad en actitud mística del ser y de la palabra. En Castillo Interior necesita del recorrido para narrar su experiencia de interioridad-intimidad.
Resumo:
El trabajo desarrolla el inventario de puntos de agua cartografiados y actuales que se emplazan en las proximidades de la vía romana Augustóbriga-Uxama. El objeto es aportar posibles relaciones del trazado de la vía con el agua tanto de escorrentía como subterránea. Especial mención se hace con respecto a las aguas subterráneas aprovechadas mediante la construcción de obras públicas muy notables y relacionadas con el mundo romano en este tramo. Se valora la importancia que representan para el patrimonio arquitectónico, histórico e hidrogeológico estas obras hidráulicas denominadas menores, pero que todavía sobreviven en gran número por nuestro territorio. Se razona la necesidad de conservar estas estructuras de abastecimiento antiguas en un ámbito rural cada vez más abandonado, y donde las fuentes públicas han perdido gran parte de su utilidad inicial, pero cuyo valor cultural y científico es innegable y debiera ser divulgado y preservado. Por último, se discuten las características y el arte de captar las aguas freáticas mediante pozos-fuentes y que identifican estas obras de ingeniería romana sobre otras semejantes de épocas distintas. Finalmente se presenta la descripción y explicación hidrogeológica de las fuentes romanas del tramo de vía citado.
Resumo:
La presa de la Fuensanta se construyó hace más de 75 años. Los desagües de fondo, alojados en el tapón de cierre del túnel de desvío del río, son dos conductos rectangulares de sección abocinada, maniobrados con válvulas de compuerta que evacuan directamente el vertido a la galería. Dada la antigüedad de los equipos mecánicos, y su estado de deterioro, se ha procedido a su renovación. Los problemas habituales de estas actuaciones (existencia de sedimentos y desprendimientos en el área de la embocadura, falta de conocimiento de las formas geométricas de las zonas ocultas por el agua, defectos de construcción no documentados, deterioro de los blindajes, dificultad de acceso, etc) se han resuelto en esta obra acondicionando las antiguas válvulas de seguridad de los conductos para utilizarlas como escudos frontales, lo que ha permitido sustituir y ampliar los blindajes de acero, e instalar las nuevas compuertas de aguas abajo.
Resumo:
La tesis doctoral que se presenta realiza un análisis de la evolución del paisaje fluvial de las riberas de los ríos Tajo y Jarama en el entorno de Aranjuez desde una perspectiva múltiple. Contempla y conjuga aspectos naturales, tales como los hidrológicos, geomorfológicos y ecológicos; también culturales, como la regulación hidrológica y la gestión del agua, las intervenciones en cauce y márgenes, la evolución de la propiedad y los cambios de usos del suelo, fundamentalmente. Este análisis ha permitido identificar el sistema de factores, dinámico y complejo, que ha creado este paisaje, así como las interrelaciones, conexiones, condicionantes y dependencias de los descriptores paisajísticos considerados. Por ejemplo, se han estudiado las relaciones cruzadas observadas entre dinámica fluvial-propiedad de la tierra-estado de conservación, cuestiones que hasta la fecha no habían sido tratadas, evaluadas o cuantificadas en otros trabajos dedicados a esta zona. La investigación se ha organizado en tres fases fundamentales que han dado lugar a los capítulos centrales del documento (capítulos 2, 3 y 4). En primer lugar, se ha realizado una caracterización de los factores, naturales y culturales, que organizan el paisaje de este territorio eminentemente fluvial (geomorfología, factores climáticos e hidrológicos, vegetación, propiedad de la tierra y elementos culturales de significación paisajística). A continuación, se ha realizado el estudio de la evolución del paisaje fluvial mediante el análisis de diversos elementos, previamente identificados y caracterizados. Para ello se han procesado imágenes aéreas correspondientes a cinco series temporales así como varios planos antiguos, obteniendo una amplia base de datos que se ha analizado estadísticamente. Finalmente, se han contrastado los resultados parciales obtenidos en los capítulos anteriores, lo que ha permitido identificar relaciones causales entre los factores que organizan el paisaje y la evolución de los elementos que lo constituyen. También, interconexiones entre factores o entre elementos. Este método de trabajo ha resultado muy útil para la comprensión del funcionamiento y evolución de un sistema complejo, como el paisaje de la vega de Aranjuez, un territorio con profundas y antiguas intervenciones culturales donde lo natural, en cualquier caso, siempre subyace. Es posible que la principal aportación de este trabajo, también su diferencia más destacada respecto a otros estudios de paisaje, haya sido mostrar una visión completa y exhaustiva de todos los factores que han intervenido en la conformación y evolución del paisaje fluvial, destacando las relaciones que se establecen entre ellos. Esta manera de proceder puede tener una interesante faceta aplicada, de tal manera que resulta un instrumento muy útil para el diseño de planes de gestión de este territorio fluvial. No en vano, una parte sustancial de la vega del Tajo-Jarama en Aranjuez es un Lugar de Importancia Comunitaria (LIC) y su posterior e ineludible declaración como Zona de Especial Conservación (ZEC) de la Red Natura 2000, de acuerdo con lo establecido en la Directiva 92/43/CE, exige la elaboración de un Plan de Gestión que, en gran medida, podría nutrirse de lo presentado, analizado e interpretado en este trabajo. En este sentido, conviene señalar la conciencia ya asumida de considerar, por su carácter integrador de la realidad territorial, el paisaje como elemento clave para la gestión adecuada de la naturaleza y el territorio. Por otra parte, se considera que los resultados de esta Tesis Doctoral permitirían plantear medidas para la puesta en valor de un paisaje sobresaliente, cuyos límites sobrepasan con creces los que en la actualidad conforman el Paisaje Cultural declarado por la UNESCO. En suma, el análisis de este espacio fluvial realizado con la profundidad y amplitud que permite el método de trabajo seguido puede utilizarse para el diseño de estrategias que dirijan la evolución de este territorio en una línea que garantice su conservación global en términos paisajísticos, patrimoniales y ecológicos, permitiendo además, de este modo, su uso equilibrado como recurso económico, cultural o educativo. This doctoral thesis shows an analysis of fluvial landscape evolution from multiple perspectives on the banks of Tagus and Jarama rivers, around Aranjuez. The thesis contemplates and combines natural features, such as hydrological, geomorphological and ecological features, as well as cultural features, like hydrological regulation and water management, interventions in channels and margins, changes in ownership and land use changes, mainly. This analysis has allowed to identify the factors system, dynamic and complex, that this landscape has created, as well as the interrelationships, connections, constraints and dependencies among considered landscape descriptors. For example, we have studied the relationships observed among fluvial dynamics- land ownership -conservation status, issues not addressed, assessed or quantified up to now in other works about this area. The research is organized into three major phases that led to the paper's central chapters (Chapters 2, 3 and 4). First, there has been a characterization of the factors, both natural and cultural, that organize the landscape of this predominantly fluvial area (geomorphology, climate and hydrological factors, vegetation, land and cultural elements of landscape significance). Then, it was made to study of fluvial landscape evolution by analyzing various elements previously identified and characterized. Aerial images were processed for five series and several old maps, obtaining an extensive database, that has been analyzed statistically. Finally, we have contrasted the partial results obtained in the previous chapters, making it possible to identify causal relationships between the factors that organize the landscape and the evolution of the elements that constitute it. This working method has been very useful for understanding the operation and evolution of a complex system, as the landscape of the Vega de Aranjuez, a territory with deep and ancient cultural interventions where anyway, nature feature always lies. It is possible that the main contribution of this work, also its most prominent difference compared with other studies of landscape, has been to show a complete and exhaustive view of all factors involved in the formation and evolution of the fluvial landscape, highlighting the relationships established among them. This approach could have an interesting applied facet, so that is a very useful tool for designing management plans on this river territory. Not surprisingly, a substantial part of the valley of the Tagus-Jarama in Aranjuez is a Site of Community Importance (SCI) and their subsequent and inevitable declaration as Special Area of Conservation (SAC) of the Natura 2000 network, in accordance with the provisions Directive 92/43/EC, requires the development of a management plan that largely could draw on what was presented, analyzed and interpreted in this paper. In this regard, it should be noted conscience and assumed to consider, on the inclusiveness of territorial reality, the landscape as a key element for the proper management of nature and territory. On the other hand, it is considered that the results of this thesis allow to propose measures for enhancement of outstanding scenery, which go well beyond the boundaries that currently the Cultural Landscape declared by UNESCO. In sum, the analysis of this river area made with the depth and breadth that enables working method can be used to design strategies that address the evolution of this territory in a line that guarantees global conservation landscape terms, heritage and ecological, also, allowing its use as a balancing economic, cultural or educational resource.
Resumo:
Las redes son la esencia de comunidades y sociedades humanas; constituyen el entramado en el que nos relacionamos y determinan cómo lo hacemos, cómo se disemina la información o incluso cómo las cosas se llevan a cabo. Pero el protagonismo de las redes va más allá del que adquiere en las redes sociales. Se encuentran en el seno de múltiples estructuras que conocemos, desde las interaciones entre las proteínas dentro de una célula hasta la interconexión de los routers de internet. Las redes sociales están presentes en internet desde sus principios, en el correo electrónico por tomar un ejemplo. Dentro de cada cliente de correo se manejan listas contactos que agregadas constituyen una red social. Sin embargo, ha sido con la aparición de los sitios web de redes sociales cuando este tipo de aplicaciones web han llegado a la conciencia general. Las redes sociales se han situado entre los sitios más populares y con más tráfico de la web. Páginas como Facebook o Twitter manejan cifras asombrosas en cuanto a número de usuarios activos, de tráfico o de tiempo invertido en el sitio. Pero las funcionalidades de red social no están restringidas a las redes sociales orientadas a contactos, aquellas enfocadas a construir tu lista de contactos e interactuar con ellos. Existen otros ejemplos de sitios que aprovechan las redes sociales para aumentar la actividad de los usuarios y su involucración alrededor de algún tipo de contenido. Estos ejemplos van desde una de las redes sociales más antiguas, Flickr, orientada al intercambio de fotografías, hasta Github, la red social de código libre más popular hoy en día. No es una casualidad que la popularidad de estos sitios web venga de la mano de sus funcionalidades de red social. El escenario es más rico aún, ya que los sitios de redes sociales interaccionan entre ellos, compartiendo y exportando listas de contactos, servicios de autenticación y proporcionando un valioso canal para publicitar la actividad de los usuarios en otros sitios web. Esta funcionalidad es reciente y aún les queda un paso hasta que las redes sociales superen su condición de bunkers y lleguen a un estado de verdadera interoperabilidad entre ellas, tal como funcionan hoy en día el correo electrónico o la mensajería instantánea. Este trabajo muestra una tecnología que permite construir sitios web con características de red social distribuída. En primer lugar, se presenta una tecnología para la construcción de un componente intermedio que permite proporcionar cualquier característica de gestión de contenidos al popular marco de desarrollo web modelo-vista-controlador (MVC) Ruby on Rails. Esta técnica constituye una herramienta para desarrolladores que les permita abstraerse de las complejidades de la gestión de contenidos y enfocarse en las particularidades de los propios contenidos. Esta técnica se usará también para proporcionar las características de red social. Se describe una nueva métrica de reusabilidad de código para demostrar la validez del componente intermedio en marcos MVC. En segundo lugar, se analizan las características de los sitios web de redes sociales más populares, con el objetivo de encontrar los patrones comunes que aparecen en ellos. Este análisis servirá como base para definir los requisitos que debe cumplir un marco para construir redes sociales. A continuación se propone una arquitectura de referencia que proporcione este tipo de características. Dicha arquitectura ha sido implementada en un componente, Social Stream, y probada en varias redes sociales, tanto orientadas a contactos como a contenido, en el contexto de una asociación vecinal tanto como en proyectos de investigación financiados por la UE. Ha sido la base de varios proyectos fin de carrera. Además, ha sido publicado como código libre, obteniendo una comunidad creciente y está siendo usado más allá del ámbito de este trabajo. Dicha arquitectura ha permitido la definición de un nuevo modelo de control de acceso social que supera varias limitaciones presentes en los modelos de control de acceso para redes sociales. Más aún, se han analizado casos de estudio de sitios de red social distribuídos, reuniendo un conjunto de caraterísticas que debe cumplir un marco para construir redes sociales distribuídas. Por último, se ha extendido la arquitectura del marco para dar cabida a las características de redes sociales distribuídas. Su implementación ha sido validada en proyectos de investigación financiados por la UE. Abstract Networks are the substance of human communities and societies; they constitute the structural framework on which we relate to each other and determine the way we do it, the way information is diseminated or even the way people get things done. But network prominence goes beyond the importance it acquires in social networks. Networks are found within numerous known structures, from protein interactions inside a cell to router connections on the internet. Social networks are present on the internet since its beginnings, in emails for example. Inside every email client, there are contact lists that added together constitute a social network. However, it has been with the emergence of social network sites (SNS) when these kinds of web applications have reached general awareness. SNS are now among the most popular sites in the web and with the higher traffic. Sites such as Facebook and Twitter hold astonishing figures of active users, traffic and time invested into the sites. Nevertheless, SNS functionalities are not restricted to contact-oriented social networks, those that are focused on building your own list of contacts and interacting with them. There are other examples of sites that leverage social networking to foster user activity and engagement around other types of content. Examples go from early SNS such as Flickr, the photography related networking site, to Github, the most popular social network repository nowadays. It is not an accident that the popularity of these websites comes hand-in-hand with their social network capabilities The scenario is even richer, due to the fact that SNS interact with each other, sharing and exporting contact lists and authentication as well as providing a valuable channel to publize user activity in other sites. These interactions are very recent and they are still finding their way to the point where SNS overcome their condition of data silos to a stage of full interoperability between sites, in the same way email and instant messaging networks work today. This work introduces a technology that allows to rapidly build any kind of distributed social network website. It first introduces a new technique to create middleware that can provide any kind of content management feature to a popular model-view-controller (MVC) web development framework, Ruby on Rails. It provides developers with tools that allow them to abstract from the complexities related with content management and focus on the development of specific content. This same technique is also used to provide the framework with social network features. Additionally, it describes a new metric of code reuse to assert the validity of the kind of middleware that is emerging in MVC frameworks. Secondly, the characteristics of top popular SNS are analysed in order to find the common patterns shown in them. This analysis is the ground for defining the requirements of a framework for building social network websites. Next, a reference architecture for supporting the features found in the analysis is proposed. This architecture has been implemented in a software component, called Social Stream, and tested in several social networks, both contact- and content-oriented, in local neighbourhood associations and EU-founded research projects. It has also been the ground for several Master’s theses. It has been released as a free and open source software that has obtained a growing community and that is now being used beyond the scope of this work. The social architecture has enabled the definition of a new social-based access control model that overcomes some of the limitations currenly present in access control models for social networks. Furthermore, paradigms and case studies in distributed SNS have been analysed, gathering a set of features for distributed social networking. Finally the architecture of the framework has been extended to support distributed SNS capabilities. Its implementation has also been validated in EU-founded research projects.
Resumo:
El objetivo de esta nota es plantear la cuestión de las antiguas superficies aplanadas en los Sistemas Ibéricos y Central en general y en la Paramera de Sigüenza, en concreto. La interpretación a estas morfologías es fundamental, pues condiciona decisivamente la evolución general del relieve. Por Paramera de Sigüenza se entiende un área alta y aplanada, similar a las que se extienden por el Sistema Ibérico, peroque a diferencia de ellas se muestra más movida y recortada en planta. La delimitación de tal Paramera de Sigiienza es muy clara hacia el Oeste y algo menos nítida hacia el Este. El límite occidental es brusco y está marcado por la Sierra de Ayllón, que presenta ya un relieve enhiesto y pronunciado. Al Este por el contrario, sólo es posible señalar como extremo, el lugar donde el carácter recortado va siendo sustituido por las morfologías mucho más masivas que caracterizan la Paramera de Molina de Aragón y Maranchón. Las investigaciones y planteamientos que hemos realizado acerca de esta cuestión, conducen a conclusiones que difieren de las anteriormente propuestas,por lo que puede resultar interesante su exposición.
Resumo:
Uno de los hechos más llamativos que podemos contemplar a nuestro alrededor es el de la proliferación de nuevos sacerdotes de antiguas magias que se intentan meter en nuestras casas. Viejas creencias, que hace unos años sólo hubieran tenido acogida en entornos de ínfimo nivel cultural o en regiones del tercer o cuarto mundo, hoy despliegan su actividad por las principales capitales del primero.
Resumo:
La afirmación de que las primeras realizaciones arquitectónicas y de ingeniería estructural son tan antiguas como la civilización no es gratuita. En efecto, tan pronto como se desea cubrir un espacio, salvar un vano o transmitir un empuje (vertical u horizontal), es preciso el desarrollo de un conocimiento específico. El dominio de las técnicas para resolver,en particular, tales problemas ha sido transmitido a través de construcciones religiosas o áulicas que han permanecido a través de los siglos como puntos de referencia y muestra de la habilidad, el ingenio y la audacia de las generaciones predecesoras. Obras como el puente de Alcántara (Cáceres), la mezquita de Córdoba y el monasterio de El Escorial (Madrid) -de los siglos I, X y XVI, respectivamente- demuestran la personalidad de sus proyectistas pero también sus conocimientos constructivos, su capacidad organizadora y la ambición y poderío económico de sus promotores. De hecho, aunque la habilidad para combinar mecanismos estructurales se encuentra en todos los artefactos manejados por el hombre, es en el ámbito de la edificación y de las obras públicas donde, hasta épocas relativamente recientes, se encuentran los ejemplos más espectaculares de estructuras resistentes. Éstos sólo aparecen, sin embargo, cuando coincide la calidad de cada uno de los tres factores que intervienen en la obra, es decir, un proyectista con imaginación y conocimientos, una industria de la construcción capaz de ofrecerle los materiales más adecuados y de llevar a cabo los procesos constructivos que aquél imagine, y un promotor con solvencia económica pero también capaz de calibrar las ventajas de las soluciones que se ofrecen y apreciar factores imponderables como la innovación o la estética, que tanto añaden al cumplimiento de los factores utilitarios que se encuentran en la motivación de las construcciones. A lo largo de la historia los proyectistas españoles han dado pruebas de calidad en algunas realizaciones que se comentarán a continuación y siempre han demostrado un buen conocimiento del estado del arte en el exterior.Sin embargo, no puede decirse que ése haya sido el caso de los promotores o de la industria que, por uno u otro motivo, se ha visto muy afectada por avatares políticos o decisiones económicas equivocadas. Las quejas de Pablo Alzola sobre el "espíritu cosmopolita con que abrimos nuestras puertas a quienes nos las cierran herméticamente", el cual, en el siglo XIX, facilitó las franquicias a la importación de materiales relacionados con la industria ferroviaria, condenando esta importación "a muerte el porvenir de la industria española de hierro y acero, base muy principal de prosperidad en todas las naciones juntas", resuenan de nuevo en relación con la integración europea. Ello se explica por la tendencia general hacia el rendimiento inmediato de las capitales con la consiguiente destecnificación propia y penetración de productos extranjeros conseguidos mediante una investigación coordinada entre administración, industria y universidad. La falta de grupos organizados, de lo que es una interesante excepción la industria del hormigón, ha provocado en muchos ámbitos una ausencia de legislación propia que la industria nacional actualmente echa en falta como defensa específica en términos técnicos.