998 resultados para frases ativas marcadas e não marcadas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el marco de la Teoría de la Polifonía (Ducrot, 1984) y de los estudios sobre la heterogeneidad enunciativa (Authier-Revuz, 1984 y 1995), este trabajo se propone analizar ciertas formas de "heterogeneidad enunciativa mostrada marcada" en libros de texto de secundario e indagar los efectos de sentido que producen. Según Authier-Revuz (1984 y 1995), la heterogeneidad enunciativa mostrada altera la unicidad aparente del discurso al incorporar otras voces. Abarca las "formas no marcadas", en donde la presencia del otro aparece sin señales explícitas -por ejemplo, el discurso indirecto libre o la ironía-, y las "formas marcadas", en las que la otredad se distingue unívocamente mediante determinados recursos lingüísticos, es decir que el yo delimita las zonas de contacto que le devuelven la ilusión de ser dueño de las palabras. Algunos ejemplos de este tipo de heterogeneidad mostrada marcada son las palabras entrecomilladas o destacadas con itálicas que, al aludir al juicio del locutor sobre su propia enunciación, configuran el procedimiento que Authier-Revuz (1995) denomina "modalización autonímica". Desde esta perspectiva teórica y en un corpus de libros de texto de secundario de distintas disciplinas, analizamos las formas de modalización autonímica y distinguimos ciertos usos específicos, como las "comillas pedagógicas" y las de lo "políticamente correcto". Por un lado, proponemos que estas formas constituyen "modos del decir pedagógicos" que operan como mecanismos de regulación discursiva y de control del "correcto decir". Por otro lado, damos cuenta de que esos modos del decir funcionan como estrategias de simplificación que manifiestan un gesto didáctico, al señalar los términos que pertenecen o bien que se apartan del "correcto decir" -ya sea conceptual, ya sea ideológico-. Finalmente, explicamos cómo estas formas contribuyen a consolidar una subjetividad pedagógica reguladora de los sentidos, que se erige como custodio del saber legítimo y guía del aprendizaje

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta comunicación tiene como propósito analizar la función de las frases nominales con determinante posesivo en la cadena de designación y denominación empleada por Alberdi en sus Cartas quillotanas para modelar el sujeto Sarmiento, como "contrafigura". En el universo textual/ discursivo, esta cadena es instalada por sintagmas nominales definidos, dispositivos altamente productivos en el corpus en tanto que funcionan como expresiones referenciales, codifican información conceptual que, con su frecuencia de uso, vuelve más accesible y prominente (Stanford y Garrod, 1981; Givón, 1983, 1992; Ariel 1990, 1996) la identidad designada, y reidentifican la representación mental del referente, a partir del propio contenido descriptivo de los nominales definidos, abriéndolo a nuevas categorizaciones (Koch, 2002) que lo figurativizan como "contrafigura". En este marco, se propone que: 1) la utilización de construcciones posesivas iconiza la accesibilidad y persistencia referencial del poseedor por la semántica del determinante posesivo (Company Company, 2006, 2009), y por el contenido descriptivo de la expresión posesiva, que contribuye a la reactivación mental del poseedor al volver sobre la carga informativa codificada e instalada como "rutina cognitiva" por los empleos referenciales de los nominales definidos (Givón, 1992); 2) tales construcciones introducen características inherentes del poseedor (Tobin, 1995; Company Company, 2006, 2009), que refuerzan los dominios cognitivos en los que ha sido inscripto el destinatario, y, por lo tanto, el efecto de polemicidad

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente trabajo pretende abordar el análisis de la práctica ensayística del escritor platense Gustavo García Saraví (1920-1994). Este poeta consumado, además, incursionó en el cuento, la novela, el teatro, la radio, la prensa escrita, etc. De allí su amplio y rico bagaje para llevar adelante otros géneros. Se puede establecer un vínculo fuerte entre su producción poética y los ensayos que produjo, puesto que la temática a la que alude en ellos está referida a su concepción teórica de la producción poética y en particular, del soneto. Las problemáticas a trabajar serán, las marcadas influencias de la estilística española en G.G.S, así como también cuáles de esas características son retomadas, aprovechadas, reelaboradas, sobre todo si tenemos presente que el corpus ensayístico principal recala en la reflexión acerca de las condiciones de elaboración del soneto; y qué manifestaciones influyen y se perciben en el campo intelectual y en la práctica escrituraria del poeta/ensayista

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo busca estudiar el posible diálogo entre la teoría crítica de Max Horkheimer y la sociología reflexiva elaborada por Pierre Bourdieu, en pos de encontrar allí materiales teóricos con los que construir una perspectiva crítica de nuestro presente. Así, la indagación en la "historia" de la teoría sociológica será el camino por el cual avanzar en la dirección "sistemática" que este escrito sigue. Si bien es dable hallar marcadas diferencias entre las perspectivas, éstas tienen lugar sobre la base de un cierto piso en común, lo cual permitirá señalar sus semejanzas pero, sobre todo, los puntos de conflicto entre ellas. Esto último constituye el objetivo central de la presente investigación: a partir de las cercanías de estas dos miradas críticas, tensionar a cada una de ellas a través de las categorías de la otra, y viceversa. Por eso este trabajo se enfoca sobre la noción de crítica que cada uno construye, o más específicamente, en los "fundamentos metódico-conceptuales" sobre los que se asientan sus perspectivas. Indagando las potencialidades que ellos le generan, pero también las limitacio nes que acarrean para la crítica. Limitaciones que, según aquí se sostiene, pueden dejarse atrás si se avanza por el camino del tenso entrelazamiento de las perspectivas de estos autores. Es decir: si se avanza hacia una teoría crítica reflexiva

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El manejo del riego en zonas Mediterráneas y el conocimiento de las repercusiones que éste tiene en el comportamiento agronómico y fisiológico, es un elemento clave para conseguir un uso eficiente del agua. Con el objetivo de evaluar la capacidad de recuperación fisiológica y de crecimiento se plantearon dos tratamientos experimentales con diferentes dosis de riego. El tratamiento con la restricción del aporte hídrico durante 20 días, iniciándose en la fase de pre-envero y un tratamiento testigo con aporte continuado de riego (kc=0,45). El ensayo experimental se ubicó en un viñedo comercial en zona cálida (Morata de Tajuña, Madrid) propiedad de Bodegas Licinia S.L, en la variedad de Cabernet sauvignon durante el verano del 2009. Se han estudiado diferentes parámetros a nivel de hoja como son la fotosíntesis, la conductancia estomática, la transpiración y el potencial hídrico foliar, medido a la hora de máxima actividad y mediodía solar. En todas las medidas de intercambio gaseoso, se observaron marcadas diferencias entre ambos tratamientos, obteniendo mayores valores el del riego continuado. La conductancia estomática medida al mediodía solar, ha reflejado ser muy sensible a la falta de agua. También se ha valorado la respuesta de los transductores lineales de desplazamiento (LTD´s) o dendrómetros ante esta situación de falta de riego, mediante la evolución de la máxima contracción diaria (MCD) acumulada durante dicho periodo. Respecto al crecimiento, el testigo fue el tratamiento que tuvo un mayor desarrollo foliar total (LAI, m 2 /m 2 ) de 0,59 versus 0,38. La falta de riego también produjo un menor rendimiento debido principalmente a un menor peso de la baya 6,8 gramos frente al riego continuo que tuvo 8,4 gramos. Sin embargo la composición del mosto no se vio afectada, manteniéndose similar en ambos tratamientos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El registro sedimentario del lago volcánico conocido como maar de Fuentillejo (Centro de España) ofrece la oportunidad de determinar la evolución paleoambiental durante el Pleistoceno medio y superior de la parte Centro-Sur de la Península Ibérica, objetivo principal de esta Tesis Doctoral. Se ha recopilado información sobre otras reconstrucciones paleoambientales en maares de todo el mundo y estudios paleoclimáticos realizados en el registro de la turbera de Padul, relativamente próxima al maar de Fuentillejo. Con ello, se pudo realizar el estado del arte.A lo largo del sondeo continuo (142,25 m) perforado en la parte central del maar de Fuentillejo en el año 2002, se han tomando un total de 613 muestras a intervalos de 20 cm para el análisis de biomarcadores. Los biomarcadores se obtuvieron mediante un equipo de extracción acelerada de disolventes (Dionex ASE 200) y fueron analizados con un cromatógrafo de gases (HP 6890) con detector selectivo de masas (HP 5973). La datación de sedimentos del maar de Fuentillejo ha sido complicada debido a la ausencia de restos orgánicos terrestres. Se seleccionaron seis muestras de sedimento para intentar datar por el método de racemización de aminoácidos: los resultados obtenidos no fueron buenos. Finalmente, el modelo de edad-profundidad se ha llevado a cabo mediante paleomagnetismo, dataciones 14C y U/Th. En base a una interpolación lineal de las edades medias calibradas se ha datado la base del registro en aproximadamente 355 ka. Se han identificado y cuantificado los n-alcanos, n-metil cetonas, ácidos n- alcanoicos y azufre orgánico del sedimento a lo largo del registro. La interpretación de los diferentes índices establecidos a partir de éstos permite independizar tres Unidades Geoquímicas generales (UG) y nueve Subunidades (S) que definen condiciones paleoambientales distintas (predominio en el aporte de vegetación terrestre/de macrofitas/acuática, lámina de agua más alta vs. más baja, periodos más húmedos vs. más secos).A partir de análisis estadísticos de los índices de n-alcanos (matriz de correlación y análisis de agrupaciones) se han definido tres asociaciones: Grupo 1 (condiciones ambientales más húmedas y fase con lámina de agua elevada), Grupo 2 (con condiciones intermedias) y Grupo 3 (las fases más secas y con lámina de agua más baja). Además, se establece un Indicador Paleoambiental (I.P.) que muestra variaciones notables correlacionables con escenarios paleoambientales distintos (más húmedos vs. más secos) distinguiendo veintiséis Episodios (E): cinco Secos, nueve Húmedos y doce Intermedios.En general, se encuentra una buena correspondencia entre estos Episodios (E) y los eventos paleoclimáticos cortos descritos por Vegas et al. (2010) en este registro, en base a la palinología y geoquímica, así como los Episodios del Oxígeno Marino (MIS) y Eventos Heinrich, que permiten suponer que las oscilaciones paleoclimatológicas registradas en el maar tienen un origen global. Esta correspondencia se confirma por el análisis espectral, que revela que los ciclos interpretados (103, 41, 26 y 23 ka) evidencian influencia orbital. Además, se ha realizado una correlación tentativa entre los episodios paleoambientales de larga duración obtenidos a partir del perfil suavizado del porcentaje relativo de C27 de la Cuenca de Padul (Granada, Sur de la Península Ibérica) y el perfil I.P. suavizado del maar de Fuentillejo, aunque hay diferencias que podrían ser explicadas por la vecindad de Padul a la zona de nieves perpetuas de Sierra Nevada lo que origina marcadas diferencias hidrológicas entre ambos sitios. El análisis por cadenas de Markov ha permitido determinar que los cambios paleoambientales reflejados por los biomarcadores no fueron, en la mayoría de los casos, bruscos pasando, normalmente, por estados transicionales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo principal de esta tesis fue incrementar el valor proteico para rumiantes de la harina de girasol mediante tratamientos combinados con ácidos y calor para proteger sus proteínas frente a la degradación ruminal. Estos estudios comprenden dos experimentos realizados sobre ovinos mediante tecnologías in vitro (experimento 1) o in situ e in vivo (experimento 2), empleando siempre dos ácidos: málico u ortofosfórico. Aprovechando este último experimento, también se consideraron otros objetivos de carácter metodológico con el fin de mejorar la precisión de las estimas de i) la degradabilidad ruminal y la digestibilidad intestinal de la proteína y los aminoácidos (AAs) de los alimentos y ii) la síntesis microbiana ruminal y su contribución al flujo post-ruminal de nutrientes al animal. En el experimento 1 (capítulo 2) se efectuaron cuatro ensayos in vitro para estudiar la influencia de distintos factores que puedan afectar la eficacia de estos tratamientos. En cada ensayo se utilizó una réplica por tratamiento (dos para el tratamiento control) y dos bolsas vacías (empleadas para corregir la contaminación microbiana) en cada una de las cuatro botellas del incubador (ANKOM Daisy II). Cada botella contenía 2 l de medio de incubación, saturado con CO2 para asegurar la anaerobiosis. Este medio consistió en una mezcla de solución McDougall y liquido ruminal filtrado en relación 4:1. El liquido ruminal fue obtenido de 2 corderos canulados en rumen, utilizándose bien solo o mezclado con el del otro cordero en una relación 3:1. Así, cada botella de incubación contenía un inoculo ruminal diferente. Las incubaciones se realizaron a 39 ºC durante 20 h, siendo las bolsas lavadas con agua corriente y almacenadas a -20 ºC. Tras ser descongeladas, se lavaron 3 veces durante 5 min en una mini-lavadora de turbina, se desecaron a 80 ºC durante 48 h y se destinaron íntegras al análisis de N-Kjeldahl. En el ensayo 1 se estudió el efecto del volumen de disolución de dos dosis de ácido ortofosfórico (0,4 y 1,2 equivalentes gramo (eq)/kg de harina de girasol), testando cinco volúmenes de disolución (80, 160, 240, 320 and 400 ml/kg de harina) para cada dosis, desecándose las harinas a 60 ºC hasta sequedad al tacto. La proteína bruta (PB) indegradada se incremento con la dosis de ácido empleada y también (como tendencia, P < 0,1) con el volumen de dilución. En base a ello en los siguientes ensayos se utilizo el volumen de dilución mayor (400 ml/kg). En el ensayo 2 se estudió el efecto de la dosis y del tipo de ácido a cuatro dosis (1,2; 2,4; 3,6 y 4,8 eq/kg), secándose igualmente las muestras tratadas a 60 ºC. La PB indegradada aumentó con la dosis de ácido, siendo también mayor para el ácido málico, tanto en este ensayo como en los posteriores. En el ensayo 3 se estudiaron los efectos de los dos ácidos, cuatro concentraciones (0,6; 1,2; 1,8 y 2,4 eq/kg) y tres tratamientos térmicos para el secado de las muestras (100, 150 and 200 ºC durante 60, 30 y 20 minutos, respectivamente). Con los tratamientos térmicos a 100 y 150 ºC no hubo un incremento de protección para concentraciones superiores a 0,8 eq/kg para ambos ácidos. Para incrementar la protección fue necesario aumentar la temperatura a 200 ºC y la dosis a 1,2 eq/kg, no observándose un aumento de protección a dosis mayores. En el ensayo 4 se estudiaron los efectos sobre la lisina disponible, la solubilidad de la PB en saliva artificial de McDougall y la PB indegradada in vitro de tratar la harina solo con agua o con disoluciones de ambos ácidos a dosis de 0,8 eq/kg y temperaturas de secado de 100 ó 150 ºC en las mismas condiciones que en el ensayo 3. No se apreciaron efectos sobre la lisina disponible para ninguno de los tratamientos. El efecto específico de los ácidos quedo demostrado tanto por la fuerte reducción de la solubilidad de la PB como por el aumento de la PB indegradada frente al tratamiento con agua. En conjunto, los resultados de este experimento mostraron que la eficacia de estos tratamientos depende del tipo y dosis de ácido y de su dilución, así como de las condiciones de secado. Como tratamiento de mayor interés a aplicar posteriormente en el experimento 2 se consideró una dosis de 0,8 eq/kg de harina, aplicada en un volumen de 400 ml/kg (correspondiente a soluciones 1 M y 0,67 M para los ácidos málico y ortofosfórico, respectivamente) y desecación a 150 ºC. El experimento 2 (capítulos 3 a 7) se realizó con un diseño en cuadrado latino 3x3, empleando tres corderos canulados en rumen y duodeno y tres dietas isoproteicas: U, M y P, que incluían harinas de girasol sin tratar (control) y tratadas con acido málico u ortofosfórico, respectivamente. La harina de girasol se trató en las condiciones ya indicadas siendo necesarias 6 horas para su secado en estufa. Las dietas incluían 40% de heno de raigrás italiano y 60% de concentrado a base de harina de girasol (tratada y/o sin tratar), trigo y corrector vitamínico-mineral, siendo suministradas a 75 g/kg P0.75 (equivalente a 2,3 × mantenimiento). La relación harina de girasol sin tratar y tratada fue de 100:0 en la dieta U y entorno a 40:60 en las dietas M y P. Tras 10 días de adaptación a la dieta, se estudiaron sucesivamente: i) el tránsito hasta el duodeno de las partículas del heno (solo en la dieta control) y de la harina de girasol marcadas previamente con europio e iterbio, respectivamente; ii) la fermentación ruminal durante el periodo postprandial, iii) la degradación ruminal in situ de la harina de girasol específica de cada dieta (y del trigo y el heno en la dieta control) y iv) la magnitud y composición del contenido ruminal mediante el vaciado manual del rumen-retículo. Durante todo el periodo experimental se infundio de forma continua una solución de sulfato amónico enriquecido en 15N (98 átomos %) para corregir la contaminación microbiana ruminal en los estudios in situ y para establecer las diferencias de composición química entre las bacterias libres (BAL) y adherentes (BAS) del rumen. Esta solución incluyó en los dos últimos días Li-Cr- EDTA para determinar la tasa de dilución ruminal. Posteriormente, y tras un periodo de al menos 10 días para eliminar el enriquecimiento en 15N de la digesta, se estudió la digestibilidad intestinal de los distintos alimentos mediante la técnica de bolsas móviles. La determinación del bypass (BP) o de la degradabilidad efectiva (DE) de la materia seca (MS) y de la PB se realizó por el método tradicional de integración matemática; estos valores se obtuvieron también para la PB y los AAs generando una muestra representativa del flujo post-ruminal del alimento en estudio en cada animal. Ello se realizó mediante la mezcla de los distintos residuos de incubación en base a la función que describe el flujo de alimento indegradado que abandona el rumen. Todos estos trabajos se realizaron considerando la tasa de salida de partículas del rumen (kp) y, según casos, considerando también la tasa de conminución y mezcla de las partículas en este compartimento (kc). Para este último caso se ha desarrollado también el modelo matemático que describe este flujo y permite este cálculo. Los valores no corregidos por la contaminación microbiana del BP (o de DE) de la PB resultantes de ambos métodos se han comparado tanto en las harinas de girasol como en los restantes alimentos de la dieta, obteniéndose valores similares, sin apreciarse desviaciones sistemáticas. Sobre las muestras compuestas representativas de la composición química del BP se determino la digestibilidad intestinal efectiva (DIE) de la MS, PB y AAs. Todos los valores resultantes de esta técnica fueron corregidos para la contaminación microbiana de las partículas que tiene lugar en el rumen. Los estudios de transito digestivo se realizaron tras suministrar en el comedero a los corderos una dosis simple de los alimentos marcados, seguida de la toma de muestras de la digesta duodenal durante 82 h. En la dieta testigo se suministraron simultáneamente el heno de raigrás y la harina de girasol, mientras que en las otras dietas solo se suministró esta última. La harina de girasol mostro un mayor valor para kc frente al heno (0,5766 v. 0,0892, /h), mientras que no hubo diferencias entre los dos alimentos para kp (0,0623 v. 0,0609, /h). Para la harina de girasol no se apreciaron diferencias entre dietas para kc, pero si se redujo de manera moderada la tasa kp con los tratamientos, siendo ésta también menor al utilizar ácido ortofosfórico frente al uso de ácido malico (0,0577 v. 0,0600, /h). El empleo de las harinas tratadas no modifico los parámetros de fermentación ruminal, la composición de los contenidos ruminales o la tasa de dilución del rumen. Los valores efectivos del BP y de DIE de la MS, PB y AAs de las harinas de girasol se obtuvieron considerando kc y kp, conjuntamente. Los tratamientos de protección incrementaron el BP de MS y PB en 48,5 y 268% de media, respectivamente. Estos incrementos se debieron principalmente al descenso de la fracción soluble y de la velocidad de degradación, pero también al aumento de la fracción indegradable, especialmente usando ácido ortofosfórico. Con los tratamientos se incrementó también la DIE de la MS (108% de media) y de la PB con gran diferencia entre los ácidos málico y ortofosfórico (20,7 v. 11,8%). Como consecuencia de estos cambios la protección aumentó la fracción realmente digerida en el intestino en 211% (MS) y 325% (PB), sin efectos entre ambos ácidos. Considerando la reducción del suministro de energía fermentable para los microorganismos ruminales asociada a la protección y los parámetros indicados por el sistema PDI francés para la síntesis de proteína microbiana digestible, la eficacia de conversión de PB en proteína metabolizable aumentó de 0,244 a 0,559 y 0,515 con el tratamiento con acido málico y ortofosfórico, respectivamente. El contenido en aminoácidos (AAs) fue similar en todas las harinas salvo por una disminución de lisina en las harinas tratadas. De forma análoga a la PB, los tratamientos de protección incrementaron el BP y la DIE de la mayoría de AAs. El aporte de AAs metabolizabes de la harina se multiplico en 3,87 para los AAs azufrados y en menor medida (2,5 veces) para la lisina, como consecuencia de las pérdidas sufridas a consecuencia del tratamiento térmico. Estos tratamientos se muestran, por tanto, útiles para incrementar el valor proteico de la harina de girasol, si bien su empleo junto con concentrados proteicos ricos en lisina bypass digestible mejoraría el perfil de la proteína metabolizable. La corrección de la contaminación microbiana de las partículas que tiene lugar en el rumen se asoció en todos los alimentos testados y, de forma general, con reducciones del BP y de su DIE en todas las fracciones estudiadas. Estas reducciones fueron pequeñas en todos los concentrados, de forma acorde con los muy pequeños niveles de contaminación registrados tanto en las harinas de girasol como en el grano de trigo. Por el contrario, esta contaminación, al igual que los efectos de su corrección, fueron muy importantes en el heno de raigrás. Esta contaminación aumentó al tener en cuenta kc. Así, para la proporción de PB de origen microbiano existente en las muestras compuestas representativas del BP, este aumento fue significativo para el heno de raigrás (0,463 v. 0,706) y solo numérico para la harina de girasol (0,0170 v. 0,0208). La reducción de las estimas de DIE al corregir esta contaminación fue consecuencia de la eliminación de forma casi completa de los microorganismos adherentes en todos los residuos testados. Así, esta biomasa se redujo en 96,1% como media de 7x3 observaciones. Como resultado de las diferencias acumulativas a nivel del rumen e intestino, la no corrección de la contaminación microbiana junto con la no consideración de kc condujo a fuertes sobrestimaciones de la PB digerida en el intestino. Ésta fue de 39% en la harina de girasol (0,146 v. 0,105) y de 761% en el heno de raigrás (0,373 v. 0,0433). Estos resultados muestran que es necesario considerar tanto kc como corregir la contaminación microbiana para obtener estimas in situ precisas en forrajes, mientras que en concentrados, siempre que la contaminación microbiana sea pequeña, es más importante considerar kc. La elevada contaminación microbiana observada en el heno de raigrás se asoció también con importantes errores a nivel del N asociado a la fibra neutro (FND) y ácido (FAD) detergente (NDIN y ADIN, respectivamente) e incluso de estas fracciones de fibra, evidenciándose que estos métodos no eliminan completamente la contaminación microbiana que sufren los alimentos en su paso por el retículorumen. Así, en la muestra compuesta representativa de la composición química del flujo postruminal antes descrita, la sobrevaloración por no corregir la contaminación microbiana fue de 99,8; 24,2; 3,34 y 0,48% para NDIN, ADIN, FND y FAD, respectivamente. Las subvaloraciones asociadas para su DE fueron 34,1; 8,79; 4,41 y 0,51%, respectivamente. La DE corregida del NDIN y ADIN (0,743 y 0,728, respectivamente) mostró un aprovechamiento ruminal elevado de estos compuestos, si bien menor al de la PB total (0,85). El estudio de este aprovechamiento sobre los residuos de incubación ruminal a 6 y 72 h demostró, además, una más rápida degradación del ADIN frente al NDIN, así como un mayor potencial de degradación de este último en este alimento. Para comprobar si la digestión en el abomaso eliminaba la contaminación microbiana en la FND y FAD se estudio esta contaminación y sus posibles errores en muestras liofilizadas de contenidos ruminales y duodenales correspondientes a una dieta mixta de similar composición a la utilizada en el experimento 2, comparándose, además, las diferencias entre la extracción secuencial o directa de la FAD. Utilizando como referencia las BAS se apreciaron elevadas contaminaciones en la FND y FAD y su N asociado tanto en las muestras ruminales como en las duodenales. Sin embargo, los resultados de enriquecimiento en 15N de las partículas fueron intermedios entre los correspondientes a BAS y BAL lo que evidencia una elevada contaminación con BAL en estas muestras probablemente durante el proceso de liofilización. Ello conlleva una sobrevaloración de esta estimación. El método de extracción directa de FAD se mostró, por otra parte, marcadamente menos eficaz en la eliminación de la contaminación microbiana. Los resultados muestran la necesidad de corregir la contaminación microbiana para obtener estimaciones precisas de la degradabilidad de las proteínas de las paredes celulares vegetales. Estos errores deberían ser también considerados para FND y FAD en estudios in situ e in vivo. La elevada tasa fraccional de degradación del grano de trigo (60,9 y 42,0%/h para MS y PB, respectivamente) implico que su flujo de material indegradado (calculado solo en base a la kp obtenida para la harina de girasol) se redujera muy rápidamente, de forma que es casi nulo a 8 h tras la ingestión. Los valores corregidos de PB digerida en el intestino (0,15) representan solo el 18,7% de la proteína metabolizable, lo que muestra que el valor proteico del grano de trigo está estrechamente ligado a la síntesis de proteína microbiana derivada de su fermentación. En el experimento 2 se observaron menores concentraciones para materia orgánica, lípidos y PB, así como en la proporción N-AAs/N total en BAL que en BAS, siendo, por el contrario, mayor su enriquecimiento en 15N. Estos últimos resultados se utilizaron (junto con los de otros trabajos previos de este equipo) para validar una predicción preexistente del enriquecimiento en 15N de las BAS a partir de este valor en las BAL. Esta ecuación, de muy alta precisión (R2 = 0.995), permite calcular la subvaloración que se comete en los aportes de nutrientes correspondientes a las BAS al usar las BAL como muestra de referencia. Esta subvaloración representa aproximadamente 21, 32,5 y 60% para PB, proteína verdadera y lípidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde hace ya varias decenas de años se planteó en California la mecanización del cultivo extensivo del tomate como consecuencia del grave problema de la falta de mano de obra para la recolección, lo que hizo necesario el rediseño del cultivo desde unas bases totalmente nuevas. El desarrollo del cultivo mecanizado en California se hizo en base a la estructura productiva existente en ese estado caracterizada por explotaciones de grandes dimensiones, por lo que su adaptación a las condiciones de la Unión Europea y otros países de la Cuenca Mediterránea, donde son frecuentes explotación es de mediana o pequeña dimensión , hizo necesario el desarrollo de nuevos equipos basados en los mismos principios, pero de menor tamaño y rendimiento. El éxito del cultivo mecanizado requiere la mecanización, en condiciones óptimas, de las operaciones de preparación del suelo e implantación del cultivo, de las labores culturales y la recolección. En este sentido, el tomate para industria fue el cultivo hortícola pionero en lo que se refiere a la extensificación y la mecanización; muchos de los sistemas desarrollados para él han sido después adaptados con éxito a otros cultivos hortícolas para industria que, siguiendo las pautas marcadas para el tomate, se han mecanizado también integramente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los cambios percibidos hacia finales del siglo XX y a principios del nuevo milenio, nos ha mostrado que la crisis cultural de la que somos participes refleja también una crisis de los modelos universales. Nuestra situación contemporánea, parece indicar que ya no es posible formular un sistema estético para atribuirle una vigencia universal e intemporal más allá de su estricta eficacia puntual. La referencia organizada, delimitada, invariable y específica que ofrecía cualquier emplazamiento, en tanto preexistencia, reflejaba una jerarquía del sistema formal basado en lo extensivo: la medida, las normas, el movimiento, el tiempo, la modulación, los códigos y las reglas. Sin embargo, actualmente, algunos aspectos que permanecían latentes sobre lo construido, emergen bajo connotaciones intensivas, transgrediendo la simple manifestación visual y expresiva, para centrase en las propiedades del comportamiento de la materia y la energía como determinantes de un proceso de adaptación en el entorno. A lo largo del todo el siglo XX, el desarrollo de la relación del proyecto sobre lo construido ha sido abordado, casi en exclusiva, entre acciones de preservación o intervención. Ambas perspectivas, manifestaban esfuerzos por articular un pensamiento que diera una consistencia teórica, como soporte para la producción de la acción aditiva. No obstante, en las últimas décadas de finales de siglo, la teoría arquitectónica terminó por incluir pensamientos de otros campos que parecen contaminar la visión sesgada que nos refería lo construido. Todo este entramado conceptual previo, aglomeraba valiosos intentos por dar contenido a una teoría que pudiese ser entendida desde una sola posición argumental. Es así, que en 1979 Ignasi Solá-Morales integró todas las imprecisiones que referían una actuación sobre una arquitectura existente, bajo el termino de “intervención”, el cual fue argumentado en dos sentidos: El primero referido a cualquier tipo de actuación que se puede hacer en un edificio, desde la defensa, preservación, conservación, reutilización, y demás acciones. Se trata de un ámbito donde permanece latente el sentido de intensidad, como factor común de entendimiento de una misma acción. En segundo lugar, más restringido, la idea de intervención se erige como el acto crítico a las ideas anteriores. Ambos representan en definitiva, formas de interpretación de un nuevo discurso. “Una intervención, es tanto como intentar que el edificio vuelva a decir algo o lo diga en una determinada dirección”. A mediados de 1985, motivado por la corriente de revisión historiográfica y la preocupación del deterioro de los centros históricos que recorría toda Europa, Solá-Morales se propone reflexionar sobre “la relación” entre una intervención de nueva arquitectura y la arquitectura previamente existente. Relación condicionada estrictamente bajo consideraciones lingüísticas, a su entender, en sintonía con toda la producción arquitectónica de todo el siglo XX. Del Contraste a la Analogía, resumirá las transformaciones en la concepción discursiva de la intervención arquitectónica, como un fenómeno cambiante en función de los valores culturales, pero a su vez, mostrando una clara tendencia dialógica entres dos categorías formales: El Contraste, enfatizando las posibilidades de la novedad y la diferencia; y por otro lado la emergente Analogía, como una nueva sensibilidad de interpretación del edificio antiguo, donde la semejanza y la diversidad se manifiestan simultáneamente. El aporte reflexivo de los escritos de Solá-Morales podría ser definitivo, si en las últimas décadas antes del fin de siglo, no se hubiesen percibido ciertos cambios sobre la continuidad de la expresión lingüística que fomentaba la arquitectura, hacia una especie de hipertrofia figurativa. Entre muchos argumentos: La disolución de la consistencia compositiva y el estilo unitario, la incorporación volumétrica del proyecto como dispositivo reactivo, y el cambio de visión desde lo retrospectivo hacia lo prospectivo que sugiere la nueva conservación. En este contexto de desintegración, el proyecto, en tanto incorporación o añadido sobre un edificio construido, deja de ser considerado como un apéndice volumétrico subordinado por la reglas compositivas y formales de lo antiguo, para ser considerado como un organismo de orden reactivo, que produce en el soporte existente una alteración en su conformación estructural y sistémica. La extensión, antes espacial, se considera ahora una extensión sensorial y morfológica con la implementación de la tecnología y la hiper-información, pero a su vez, marcados por una fuerte tendencia de optimización energética en su rol operativo, ante el surgimiento del factor ecológico en la producción contemporánea. En una sociedad, como la nuestra, que se está modernizando intensamente, es difícil compartir una adecuada sintonía con las formas del pasado. Desde 1790, fecha de la primera convención francesa para la conservación de monumentos, la escala de lo que se pretende preservar es cada vez más ambiciosa, tanto es así, que al día de hoy el repertorio de lo que se conserva incluye prácticamente todas las tipologías del entorno construido. Para Koolhaas, el intervalo entre el objeto y el momento en el cual se decide su conservación se ha reducido, desde dos milenios en 1882 a unas décadas hoy en día. En breve este lapso desaparecerá, demostrando un cambio radical desde lo retrospectivo hacia lo prospectivo, es decir, que dentro de poco habrá que decidir que es lo que se conserva antes de construir. Solá-Morales, en su momento, distinguió la relación entre lo nuevo y lo antiguo, entre el contraste y la analogía. Hoy casi tres décadas después, el objetivo consiste en evaluar si el modelo de intervención arquitectónica sobre lo construido se ha mantenido desde entonces o si han aparecido nuevas formas de posicionamiento del proyecto sobre lo construido. Nuestro trabajo pretende demostrar el cambio de enfoque proyectual con la preexistencia y que éste tiene estrecha relación con la incorporación de nuevos conceptos, técnicas, herramientas y necesidades que imprimen el contexto cultural, producido por el cambio de siglo. Esta suposición nos orienta a establecer un paralelismo arquitectónico entre los modos de relación en que se manifiesta lo nuevo, entre una posición comúnmente asumida (Tópica), genérica y ortodoxa, fundamentada en lo visual y expresivo de las últimas décadas del siglo XX, y una realidad emergente (Heterotópica), extraordinaria y heterodoxa que estimula lo inmaterial y que parece emerger con creciente intensidad en el siglo XXI. Si a lo largo de todo el siglo XX, el proyecto de intervención arquitectónico, se debatía entre la continuidad y discontinuidad de las categorías formales marcadas por la expresión del edificio preexistente, la nueva intervención contemporánea, como dispositivo reactivo en el paisaje y en el territorio, demanda una absoluta continuidad, ya no visual, expresiva, ni funcional, sino una continuidad fisiológica de adaptación y cambio con la propia dinámica del territorio, bajo nuevas reglas de juego y desplegando planes y estrategias operativas (proyectivas) desde su propia lógica y contingencia. El objeto de esta investigación es determinar los nuevos modos de continuidad y las posibles lógicas de producción que se manifiestan dentro de la Intervención Arquitectónica, intentando superar lo aparente de su relación física y visual, como resultado de la incorporación del factor operativo desplegado por el nuevo dispositivo contemporáneo. Creemos que es acertado mantener la senda connotativa que marca la denominación intervención arquitectónica, por aglutinar conceptos y acercamientos teóricos previos que han ido evolucionando en el tiempo. Si bien el término adolece de mayor alcance operativo desde su formulación, una cualidad que infieren nuestras lógicas contemporáneas, podría ser la reformulación y consolidación de un concepto de intervención más idóneo con nuestros tiempos, anteponiendo un procedimiento lógico desde su propia necesidad y contingencia. Finalmente, nuestro planteamiento inicial aspira a constituir un nueva forma de reflexión que nos permita comprender las complejas implicaciones que infiere la nueva arquitectura sobre la preexistencia, motivada por las incorporación de factores externos al simple juicio formal y expresivo preponderante a finales del siglo XX. Del mismo modo, nuestro camino propuesto, como alternativa, permite proyectar posibles sendas de prospección, al considerar lo preexistente como un ámbito que abarca la totalidad del territorio con dinámicas emergentes de cambio, y con ellas, sus lógicas de intervención.Abstract The perceived changes towards the end of the XXth century and at the beginning of the new milennium have shown us that the cultural crisis in which we participate also reflects a crisis of the universal models. The difference between our contemporary situation and the typical situations of modern orthodoxy and post-modernistic fragmentation, seems to indicate that it is no longer possible to formulate a valid esthetic system, to assign a universal and eternal validity to it beyond its strictly punctual effectiveness; which is even subject to questioning because of the continuous transformations that take place in time and in the sensibility of the subject itself every time it takes over the place. The organised reference that any location offered, limited, invariable and specific, while pre-existing, reflected a hierarchy of the formal system based on the applicable: measure, standards, movement, time, modulation, codes and rules. Authors like Marshall Mc Luhan, Paul Virilio, or Marc Augé anticipated a reality where the conventional system already did not seem to respond to the new architectural requests in which information, speed, disappearance and the virtual had blurred the traditional limits of place; pre-existence did no longer possess a specific delimitation and, on the contrary, they expect to reach a global scale. Currently, some aspects that stayed latent relating to the constructed, surface from intensive connotations, transgressing the simple visual and expressive manifestation in order to focus on the traits of the behaviour of material and energy as determinants of a process of adaptation to the surroundings. Throughout the entire Century, the development of the relation of the project relating to the constructed has been addressed, almost exclusively, in preservational or interventianal actions. Both perspectives showed efforts in order to express a thought that would give a theoretical consistency as a base for the production of the additive action. Nevertheless, the last decades of the Century, architectural theory ended up including thoughts from other fields that seem to contaminate the biased vision 15 which the constructed related us. Ecology, planning, philosophy, global economy, etc, suggest new approaches to the construction of the contemporary city; but this time with a determined idea of change and continuous transformation, that enriches the panorama of thought and architectural practice, at the same time, according to some, it puts disciplinary specification at risk, given that there is no architecture without destruction, the constructed organism requires mutation in order to adjust to the change of shape. All of this previous conceptual framework gathered valuable intents to give importance to a theory that could be understood solely from an argumental position. Thusly, in 1979 Ignasi Solá-Morales integrated all of the imprecisions that referred to an action in existing architecture under the term of “Intervention”, which was explained in two ways: The first referring to any type of intervention that can be carried out in a building, regarding protection, conservation, reuse, etc. It is about a scope where the meaning of intensity stays latent as a common factor of the understanding of a single action. Secondly, more limitedly, the idea of intervention is established as the critical act to the other previous ideas such as restauration, conservation, reuse, etc. Both ultimately represent ways of interpretation of a new speech. “An intervention, is as much as trying to make the building say something again or that it be said in a certain direction”. Mid 1985, motivated by the current of historiographical revision and the concerns regarding the deterioration of historical centres that traversed Europe, Solá-Morales decides to reflect on “the relationship” between an intervention of the new architecture and the previously existing architecture. A relationship determined strictly by linguistic considerations, to his understanding, in harmony with all of the architectural production of the XXth century. From Contrast to Analogy would summarise transformations in the discursive perception of architectural intervention, as a changing phenomenon depending on cultural values, but at the same time, showing a clear dialogical tendency between two formal categories: Contrast, emphasising the possibilities of novelty and difference; and on the other hand the emerging Analogy, as a new awareness of interpretation of the ancient building, where the similarity and diversity are manifested simultaneously. For Solá-Morales the analogical procedure is not based on the visible simultaneity of formal orders, but on associations that the subject establishes throughout time. Through analogy it is tried to overcome the simple visual relationship with the antique, to focus on its spacial, physical and geographical nature. If the analogical attempt guides an opening towards a new continuity; it still persists in the connection of dimensional, typological and figurative factors, subordinate to the formal hierarchy of the preexisting subjects. 16 The reflexive contribution of Solá-Morales’ works could be final, if in the last decades before the end of the century there had not been certain changes regarding linguistic expression, encouraged by architecture, towards a kind of figurative hypertrophy, amongst many arguments we are in this case interested in three moments: The dissolution of the compositional consistency and the united style, the volumetric incorporation of the project as a reactive mechanism, and the change of the vision from retrospective towards prospective that the new conservation suggests. The recurrence to the history of architecture and its recognisable forms, as a way of perpetuating memory and establishing a reference, dissolved any instinct of compositive unity and style, provoking permanent relationships to tend to disappear. The composition and coherence lead to suppose a type of discontinuity of isolated objects in which only possible relationships could appear; no longer as an order of certain formal and compositive rules, but as a special way of setting elements in a specific work. The new globalised field required new forms of consistency between the project and the pre-existent subject, motivated amongst others by the higher pace of market evolution, increase of consumer tax and the level of information and competence between different locations; aspects which finally made stylistic consistence inefficient. In this context of disintegration, the project, in incorporation as well as added to a constructed building, stops being considered as a volumetric appendix subordinate to compositive and formal rules of old, to be considered as an organism of reactive order, that causes a change in the structural and systematic configuration of the existing foundation. The extension, previsouly spatial, is now considered a sensorial and morphological extension, with the implementation of technology and hyper-information, but at the same time, marked by a strong tendency of energetic optimization in its operational role, facing the emergence of the ecological factor in contemporary production. The technological world turns into a new nature, a nature that should be analysed from ecological terms; in other words, as an event of transition in the continuous redistribution of energy. In this area, effectiveness is not only determined by the capacity of adaptation to changing conditions, but also by its transforming capacity “expressly” in order to change an environment. In a society, like ours, that is modernising intensively, it is difficult to share an adecuate agreement with the forms of the past. From 1790, the date of the first French convention for the conservation of monuments, the scale of what is expexted to be preserved is more and more ambitious, so much so that nowadays the repertoire of that what is conserved includes practically all typologies of the constructed surroundings. For Koolhaas, the ínterval between the object and the moment when its conservation is decided has been reduced, from two 17 milennia in 1882 to a few decades nowadays. Shortly this lapse will disappear, showing a radical change of retrospective towards prospective, that is to say, that soon it will be necessary to decide what to conserve before constructing. The shapes of cities are the result of the continuous incorporation of architecture, and perhaps that only through architecture the response to the universe can be understood, the continuity of what has already been constructed. Our work is understood also within that system, modifying the field of action and leaving the road ready for the next movement of those that will follow after us. Continuity does not mean conservatism, continuity means being conscient of the transitory value of our answers to specific needs, accepting the change that we have received. That what has been constructed to remain and last, should cause future interventions to be integrated in it. It is necessary to accept continuity as a rule. Solá-Morales, in his time, distinguished between the relationship with new and old, between contrast and analogy. Today, almost three decades later, the objective consists of evaluating whether the model of architectural intervention in the constructed has been maintained since then or if new ways of positioning the project regarding the constructed have appeared. Our work claims to show the change of the approach of projects with pre-existing subjects and that this has got a close relation to the incorporation of new concepts, techniques, tools and necessities that impress the cultural context, caused by the change of centuries. This assumption guides us to establish a parallelism between the forms of connection where that what is new is manifested between a commonly assumed (topical), generic and orthodox position, based on that what is visual and expressive in the last decades of the XXth century, and an emerging (heterotopical), extraordinary and heterodox reality that stimulates the immaterial and that seems to emerge with growing intensity in the XXIst century. If throughout the XXth century the project of architectural intervention was considered from the continuity and discontinuity of formal categories, marked by the expression of the pre-existing building, the new contemporary intervention, as a reactive device in the landscape and territory, demands an absolute continuity. No longer a visual, expressive or functional one but a morphological continuity of adaptation and change with its own territorial dynamics, under new game rules and unfolding new operative (projective) strategies from its own logic and contingency. 18 The aim of this research is to determine new forms of continuity and the possible logic of production that are expressed in the Architectural Intervention, trying to overcome the obviousness of its physical and visual relationship, at the beginning of this new century, as a result of the incorporation of the operative factor that the new architectural device unfolds. We think it is correct to maintain the connotative path that marks the name architectural intervention by bringing previous concepts and theorical approaches that have been evolving through time together. If the name suffers from a wider operational range because of its formulation, a quality that our contemporary logic provokes, the reformulation and consolidation of an interventional concept could be more suitable for our times, giving preference to a logical method from its own necessity and contingency. It seems that now time shapes the topics, it is no longer about materialising a certain time but about expressing the changes that its new temporality generates. Finally, our initial approach aspires to form a new way of reflection that permits us to understand the complex implications that the new architecture submits the pre-existing subject to, motivated by the incorporation of factors external to simple formal and expressive judgement, prevailing at the end of the XXth century. In the same way, our set road, as an alternative, permits the contemplation of possible research paths, considering that what is pre-existing as an area that spans the whole territory with emerging changing dynamics and, with them, their interventional logics.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto es una documentación sintetizada, para los alumnos de Grado en Imagen y Sonido, de todos los conceptos que conciernen a la asignatura Sistemas Audiovisuales. No obstante puede servir para todo aquel al que le interese la materia, sin ser necesariamente estudiante. El material se basa en la recopilación de libros de diversos autores, páginas web y catálogos de productos de empresas del sector audiovisual. Se intenta con esto incentivar en el auto-aprendizaje, proporcionando multitud de fuentes de información. El documento se ha dividido en dos bloques temáticos correspondientes a los temas: 1- Dispositivos de captación y reproducción de sonido e imagen. 2- Señales y formatos de audio y vídeo. Aunque no es tema de este proyecto pero si de la asignatura hay que nombrar el tercer bloque temático, Introducción a los sistemas de transmisión de audio y vídeo. Dado que hay suficiente documentación de estudio sobre éste se ha optado por no incluirlo. Cada bloque temático a su vez contiene cuatro unidades didácticas. Cada unidad se ha desarrollado de manera independiente a las demás, es decir, que cada unidad puede ser estudiada sin necesidad de recurrir a otras unidades para comprender la/s que interesa/n. Por otro lado hay que remarcar que todos los capítulos tienen relación entre sí. La documentación se complementa al final de cada unidad didáctica con un test de evaluación que a su vez ha sido publicado dentro del entorno de Moodle en la página correspondiente a la asignatura. Para ello se ha accedido a esta plataforma on line con el rol de editor de contenido. Para la elaboración de los cuestionarios se han tomado los conceptos clave de cada unidad didáctica, de esta manera los alumnos pueden saber si han comprendido lo que se explica en la documentación y mejorar así sus conocimientos. Para la redacción y estructuración de cada unidad didáctica, así como el documento en general, se ha cogido como referencia la Taxonomía de objetivos de la Educación o Taxonomía de Bloom. Dado que el dominio cognitivo del lector se encuadra dentro del ‘nivel de comprensión’, el documento no resulta tedioso en su estudio. No obstante introduce al alumno en los temas más importantes de la materia, proporcionando una base sólida de conocimiento en sistemas audiovisuales. Es precisamente el interés en hacer lo más accesible posible este documento lo que ha dificultado su elaboración, ya que el área de estudio es muy extensa y es difícil sintetizar sin eliminar contenido importante. No obstante para hacer más fiable el documento se ha seguido las pautas temáticas y argumentales marcadas por el Departamento Ingeniería Audiovisual y Comunicaciones de la Escuela Universitaria de Ingeniería Técnica de Telecomunicaciones de la Universidad Politécnica de Madrid verificando cada uno de los capítulos con los profesores de este departamento. Al tratarse de un proyecto con fines académicos, el texto se ha apoyado por figuras, esquemas, tablas, anexos y desarrollo de ecuaciones para hacer más comprensible lo que se expone. Algunos de estas informaciones se incluyen en inglés y no se ha creído conveniente su traducción dado que gran parte de la información que encontrará el alumno a lo largo de la carrera vendrá escrita en este idioma. Por último hay que decir al lector que es conveniente, pero no necesario, tener ciertas nociones de cálculo, álgebra, ondas y circuitos para seguir con fluidez lo que a continuación se expone. ABSTRACT. This project concerns all the concepts and topics of the subject Audiovisual Systems. It has been created for students of Sound and Image Degree, however everyone who's interested in this subject could use it even if isn’t a student. The document is divided into two main thematic sections corresponding to the topics: 1- Catchment and reproduction devices of sound and image. 2- Audio and video signals and formats. Even if this subject it isn’t mention in this project, it’s very important to quote a third important thematic of this block , such as Introduction about Transmission of Audio and Video System. Since there is enough study-documentation about this topic, it has been taken the choice to don’t integrate this chapter in this project. Every thematic block in this project is divided in chapters that have been developed in an independent way: that’s means that for each unit it is not necessary to look forward to other chapters in this project On the other hand it is necessary to emphasize that all the chapters are related one to each other. Every didactic unit and chapter ends with an evaluation test , that has been published with Moodle System using a content editor account. Those exercises will help in a easy way the student to improve his skills and his own ability. Collection of books of various authors, websites and product catalogs of audiovisual companies are used in this document and are included for stimulate the curiosity of the student. The key concepts of each unit have been used for making tests, so in this way students could be able to know if they have understood what the documentation explains and improve his skills. For writing and building each didactic unit, such as in the general document, it has been taken reference from Bloom’s Taxonomy. Since the skills and competence of the student are concentrated in the ‘comprehension level’, it will not be very complicated or hard to study. In spite of everything, all of thematic treated and discussed in documentation gives a solid knowledge of topic about audiovisual systems. The most difficult thing of realizing this document it was to take very complex topic and try to explain them as simply as possible In spite of everything for making this document as much accurated as possible it has been taken as point of reference rules established by the Department of Audiovisual Engineering & Communications of University School of Telecommunications Engineering (EUITT-UPM). This Project reach academic goal, for this reason in this document images, tables, annexes and outlines are enclosed in this document for an easier compression. At last, it’s necessary to say that each lector must have necessary a basic knowledge about arithmetic, calculus, waves and electronic circuits in the order that he could follow in a fluently way what the documentation set out.