999 resultados para Percepción frente al cambio


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La carta que presentamos traducida al español fue escrita en el año 1008 por el obispo misionero Bruno de Querfurt. El destinatario era el rey sajón Enrique II (1002-1024), emperador desde el año 1014. El contexto de la epístola está marcado por los vínculos cambiantes entre diversos actores políticos. La dinastía polaca piasta había cooperado con el Imperio desde mediados del siglo x. Por otra parte, los liutizos, una confederación de pueblos eslavos paganos, se habían levantado contra las estructuras eclesiásticas e imperiales en la región del Elba en 983, en el marco de un floreciente paganismo. Sin embargo, al iniciarse el nuevo milenio, el piasta Boleslao el Bravo se había convertido en una amenaza más atemorizadora para el Imperio, debido particularmente a la expansión territorial que encabezaba. Así, el rey Enrique II pactó en el año 1003 en Quedlinburg con los liutizos frente al piasta: se sellaba una alianza entre un rey cristiano y una confederación pagana para hacer frente a otro gobernante cristiano. Bruno de Querfurt, que había dedicado su vida a la misión y recibía apoyo de Boleslao, escribió esta misiva, con el objeto de señalar las contradicciones de la alianza citada arriba

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El trabajo ha sido elaborado en base al Proyecto de Investigación 2009-2011 financiado por la Universidad Nacional de Cuyo, Secretaría de Ciencia Técnica y Posgrado, dirigido por María Cristina Romagnoli y denominado: "De la Casa a la Escuela. Ingresos diferentes al nivel primario en un sistema educativo desigual". Se busca reconocer los mecanismos y prácticas generados por las políticas educativas, que contribuyen a la conformación de una oferta educativa diferencial que opera como condición para la construcción de las "elecciones escolares". El trabajo de campo se ha realizado en escuelas primarias pertenecientes a distintos sectores sociales, ubicadas en el Gran Mendoza. Para esta presentación se ha seleccionado la voz de algunos directivos que nos dan cuenta de:¿Cómo se representan el espacio de las Instituciones educativas?, ¿De qué manera interviene el Estado?, ¿Cómo se distribuye el derecho social a la educación entre los ciudadanos?, ¿Eligen "democráticamente las familias" la escuela de sus hijos?, ¿Se van conformando distintos ciudadanos a través del ingreso diferencial/desigual en las escuelas? Las lógicas y modos de actuar aprendidos por los directivos en años de transformación educativa, más las normativas y programas que se han mantenido pese al cambio de la Ley Nacional de Educación, muestran la persistencia del neoliberalismo, que compromete seriamente la reproducción en términos escolares de la desigualdad social

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta ponencia se pretende plantear interrogantes como los siguientes: ¿Incluye el rol docente a la investigación educacional? ¿De qué manera? ¿Con qué posibilidades y condicionamientos? ¿Qué sugerencias pueden contribuir al desarrollo de investigaciones educacionales potencialmente fértiles en nuestro medio? ¿Qué propuesta de capacitación resultaría adecuada para lograr este objetivo? Existen factores que posibilitan la existencia de investigaciones educacionales llevadas a cabo por docentes, por cuanto es escasa la documentación sobre el quehacer cotidiano, el que es realizado por docentes "comunes y corrientes" en las condiciones usuales del trabajo escolar diario. El docente es quien mejor conoce lo que efectivamente pasa en las aulas, por lo cual es quien posee mayores posibilidades de investigar su contexto y de poner en marcha innovaciones basadas en investigaciones propias. Nos referimos a cambios, fundamentados y evaluables, que contribuyan a mejorar algún aspecto de la complejísima realidad educativa en un contexto determinado. No podemos desconocer que, al mismo tiempo, existen factores que condicionan la posibilidad de que los docentes lleven a cabo investigaciones educacionales. Entre ellos se cuentan las limitadas posibilidades de capacitación en investigación educacional, sumadas a la falta de financiamiento, a la elevada carga horaria frente al aula, al inexistente reconocimiento institucional y a factores psicológicos como temores y resistencia al cambio. Partiendo de un análisis crítico de las investigaciones educacionales presentes en nuestro medio, se realizan sugerencias que incluyen una propuesta de capacitación en este tema, destinada tanto a la formación inicial como a la continua y de posgrado. La propuesta sugiere la reconstrucción de la memoria histórica, pues si bien es importante conocer el contenido actual de la práctica docente cotidiana, incluida la interpretación que de ella hacen los sujetos particulares (docentes y alumnos), no lo es menos el conocimiento de su vinculación con la historia de la educación en el contexto nacional y de los países latinoamericanos. Asimismo, puesto que toda investigación presupone una "mirada", un "posicionamiento" respecto de la realidad, de la verdad, de la metodología, de su validación, de sus objetivos, la capacitación en investigación educacional no puede prescindir de los componentes epistemológicos que condicionan el quehacer de los investigadores. Las propuestas de capacitación en Investigación Educacional no deberían convertirse en simples "Metodologías de la Investigación" con énfasis en métodos y técnicas, sino incluir de manera fundamental los aspectos históricos, contextuales y epistemológicos. El realizar Investigaciones Educacionales representa un desafío y también una posibilidad de crecimiento para los profesionales docentes. Sin embargo, el trabajo de investigación, como cualquier otro, requiere condiciones específicas para realizarse (tiempo, trabajo colectivo, espacios de discusión y análisis) que sería necesario fortalecer y promover en las instituciones vinculadas a la formación - actualización docente. No es posible un trabajo de investigación a partir de consignas como: "ahora los docentes tienen que investigar" sin que se promuevan específicas condiciones laborales para quienes lo realicen ni se propicien los espacios institucionales que realmente posibiliten ese trabajo. No es posible pedir a los docentes en servicio que realicen labores de investigación como una tarea más del trabajo escolar cotidiano, ya bastante exigente en sí mismo. Si damos por descontada la motivación de los docentes hacia la innovación, y asumimos que ella va de la mano con la investigación, es posible la construcción de una comunidad de docentes dispuestos a asumir el desafío de realizar pequeñas -pero fecundas- investigaciones educacionales. La alternativa del docente como "usuario" de investigaciones -aunque no como investigador propiamente dicho- también aporta al mejoramiento de la calidad educativa, para ello es indispensable que los educadores puedan acceder a los resultados de las investigaciones (por ejemplo a través de las TIC).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este libro es una contribución al estudio de la izquierda no armada durante la última dictadura argentina (1976-1983). El análisis del Partido Socialista de los Trabajadores-Movimiento al Socialismo (PST-MAS) permite reconocer los discursos y las formas organizativas del partido frente a tres ejes centrales: la instauración de la dictadura y la posterior prohibición y disolución de la izquierda peronista y marxista, las consecuencias de la represión basada en el dispositivo de los Centros Clandestinos de Detención y el proceso de apertura política que prosiguió a la derrota en las Islas Malvinas. Las páginas de este trabajo analizan las formas organizativas adoptadas por gran parte de la izquierda setentista basadas en un repertorio de prácticas que oscilaban entre la "legalidad" y la "clandestinidad". De este modo, se abordan las transformaciones de las percepciones y las iniciativas del PST-MAS frente al problema de la represión, dando cuenta del pasaje del "paradigma revolucionario" al marco ético-político de los Derechos Humanos. Por último, el libro da cuenta de los cambios que se produjeron en las prácticas políticas de la organización en el contexto del anuncio de la apertura electoral (1982-1983) y analiza la novedosa propuesta política del Movimiento al Socialismo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos veinte años se han sucedido grandes transformaciones en el mundo del trabajo. Mientras se discutía el fin del trabajo, o el fin de la clase trabajadora como tal, las políticas neoliberales sacudieron el mercado laboral, haciendo más heterogénea a la clase-que-vive-del-trabajo. El empleo comenzaba a perder sus características clásicas, es decir dejaba de ser básicamente estable. La década del '90 consolidó en este sentido un cambio de escenario para los actores del mundo productivo. La modificación en las condiciones de acumulación y competencia del capital durante las últimas décadas, generó nuevas presiones sobre las formas de contratación y uso de la fuerza de trabajo. La precariedad se presentó como la materialización de una nueva relación de poder entre el capital y el trabajo, dejando de ser una característica residual del mercado laboral, para transformarse en condición estructural del modelo de acumulación. Se entiende asimismo a la precariedad como una forma histórica que adquiere la experiencia de la explotación, y por lo tanto se plantea la necesidad de pensarla no como una característica individual de los trabajadores sino como particularidad de los lugares de trabajo. En este sentido se introduce el concepto de 'ámbitos laborales precarios'. Estos ámbitos son los que configuran las relaciones entre los trabajadores. Relaciones que atraviesan las fronteras contractuales, influyen sobre las percepciones y subjetividades de los trabajadores, y condicionan sus marcos de acción y organización. En la presente investigación, se problematiza el concepto de precariedad laboral a partir de las percepciones de los trabajadores precarizados de Carrefour La Plata. El estudio, se centra en los jóvenes trabajadores, uno de los grupos más vulnerables y flexibilizados frente al mercado laboral; y se llevó a cabo en el sector servicios, donde se concentra el empleo de jóvenes en condiciones precarias

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivo: verificar relación entre IMC, capacidades físicas y discriminación en clase de Educación Física, alumnos entre 10 a 11 años, 4 colegios de Chillán, Chile. Metodología: medir flexibilidad, velocidad y resistencia; calcular IMC; posteriormente contestar cuestionario de auto percepción frente a sus pares en relación a discriminación en clases de Educación Física. Población: 178 sujetos; muestra: 44 indicaron discriminación. Resultados: IMC: 72,6 por ciento de la muestra, que sienten discriminación, no presentan niveles de obesidad. Velocidad: 47,7 por ciento sujetos discriminados se encuentran sobre el promedio; demuestra que la velocidad es un factor que influye en la discriminación debido a que menos de la mitad de los alumnos discriminados se encuentran sobre el nivel de aprobación. Resistencia: 75 por ciento superior y 25 por ciento bajo el promedio lo que demuestra que la resistencia no es un factor determinante en la discriminación. Flexibilidad: 11 por ciento de los sujetos bajo el promedio y un 89 por ciento sobre el nivel de aprobación; se indica que la flexibilidad no es un factor determinarte en la discriminación. Los resultados indicaron que la relación de IMC y las capacidades físicas, en base a la discriminación en la clase de Educación Física, existe relación entre ambas, pero con resultados diferentes, ya que el índice de masa corporal en sujetos que presentan el rango de bajo peso y son discriminados, tienen mejor capacidad física que en alumnos de rango normal, riesgo de obesidad y obesidad

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente escrito se intenta dar cuenta del uso de una herramienta, el diálogo guionado, en el particular momento del inicio de los trabajos prácticos de la cursada de la materia. En el año 2002 la titular propuso convertir las clases en una experiencia en la cual se pudiesen vivenciar algunos efectos grupales, y a partir de los mismos pensar, a la luz de las herramientas teóricas, los diversos elementos que coproducen esos efectos. En la fundamentación de la propuesta hay un intento de intervenir dentro del ámbito académico sobre ciertos modos de enseñar el quehacer del psicólogo clínico apuntalados en la incorporación de nociones teóricas- conceptuales, que resulta ineficaz, en tanto produce repeticiones de conceptos mas que formación y capacitación para trabajar en y con grupos. Luego de los primeros años de implementación de un dispositivo de trabajos prácticos con un momento de producción grupal y otro de lectura situacional de las producciones grupales estudiadas en la bibliografía-, el dispositivo tecnológico ya era conocido entre los estudiantes, lo cual generaba resistencias. Es con el fin de que sea posible explicitar los supuestos con los que llegan docentes y alumnos a la clase, que se propone e implementa inicialmente el 'diálogo guionado'. El diálogo guionado que se realiza entre los coordinadores de un agrupamiento, en voz alta y frente al conjunto, es un material que forma parte del pensamiento 'íntimo' del coordinador de grupo, en el momento en que los hechos grupales se sucedían. El diálogo pone en evidencia complejos procesos mentales que se juegan en la coordinación grupal y las diversas lecturas de los fenómenos, además de elecciones acerca de la pertinencia y relevancia de ciertas intervenciones. El diálogo guionado tal como ha sido retrabajado al interior de la cátedra para formar parte del primer práctico es un dispositivo técnico pedagógico que consiste en líneas generales en lo siguiente: los dos o tres docentes co-coordinadores del práctico se juntan en un espacio de reunión previa al primer trabajo práctico, e intercambian acerca de expectativas sobre los alumnos, las lecturas, los contenidos, los escritos que realizaran los alumnos a modo de evaluación parcial; en suma, de los supuestos que tienen en relación al dictado de la materia en el cuatrimestre. Se consensúan algunos puntos pertinentes para comunicar. Una vez que los docentes llegan al práctico, solicitan la atención de los estudiantes y les comentan que realizarán un dialogo al modo de una escena que pretenden en un momento posterior se abra a todos. Los docentes co coordinadores hablan entre sí de sus expectativas tomando lo guionado en la reunión previa. Luego se invita a los estudiantes a sumar las voces, de este modo se abre el diálogo al conjunto. El efecto calculado producido en las cursadas ha sido la verbalización de los supuestos operantes tanto en docentes como en alumnos en los inicios de los trabajos prácticos. Esto distiende la obligación sentida por los docentes de generar un espacio de confianza. Se presentan efectos de apertura, curiosidad, buen clima grupal, soltura al hablar, deseos de leer en base a la falta de comprensión de algunos conceptos que han sido introducidos en el dialogo. Se produce un cambio que implica el acortamiento de la distancia entre los estudiantes y docentes que permite empatía y reciprocidad lo cual no incide en la asimetría del rol docente- alumno, pero si en el pie de igualdad necesario para un proceso de pensamiento clínico. De este modo, el uso del diálogo guionado en el inicio de los prácticos ha creado condiciones para mejorar la calidad de la cursada. En la dimensión pedagógica, renueva la manera de pensar la enseñanza. Los contenidos abordados logran una ampliación al incidir la capacitación sobre actitudes y procedimientos. En relación a lo conceptual, se trabajan los contenidos de lo grupal, conformación de equipo, efectos de la disposición espacial, de la mirada, el lenguaje gestual, y las condiciones de inicio de los agrupamientos, entre otros. En relación a los contenidos procedimentales, se adquiere capacidad de diálogo y se aborda la resolución de situaciones problema. En cuanto a los contenidos actitudinales, el diálogo guionado permite la valoración de la importancia del diálogo en la producción del conocimiento, la valoración y respeto por las ideas aportadas por los compañeros, el uso de lenguaje adecuado y no discriminatorio, la aceptación de los diversos puntos de vista, la expresión clara de las propias ideas, la capacidad de demora, y estimula el pensamiento critico sobre las temáticas abordadas

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo estudia el comportamiento de dos hormigones frente al ensayo de resistencia al hielo-deshielo de hormigones endurecidos. La incorporación de un aditivo aireante mejora de forma sensible el comportamiento del hormigón frente a este ensayo. Sin embargo, en hormigón pretensado con cordón adherente está prohibido el uso de aditivos aireantes. Una estrategia adecuada es emplear humo de sílice para mejorar la impermeabilidad del hormigón. En este trabajo se compara el comportamiento de un hormigón con aditivo aireante y otro con humo de sílice frente al ensayo de resistencia al hielo-deshielo. Además, estudia la viabilidad de emplear técnicas alternativas de medida del deterioro superficial: modificación de la velocidad de pulso ultrasónico y medida de la deformación superficial con galgas extensométricas. Ambas técnicas se muestran viables y aportan ventajas frente al peso de la masa superficial desprendida por descascarillamiento

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Wireless communication is the transfer of information from one place to another without using wires. From the earliest times, humans have felt the need to develop techniques of remote communication. From this need arose the smoke signals, communication by sun reflection in mirrors and so on. But today the telecommunications electronic devices such as telephone, television, radio or computer. Radio and television are used for one-way communication. Telephone and computer are used for two-way communication. In wireless networks there is almost unlimited mobility, we can access the network almost anywhere or anytime. In wired networks we have the restriction of using the services in fixed area services. The demand of the wireless is increasing very fast; everybody wants broadband services anywhere anytime. WiMAX (Worldwide Interoperability for Microwave Access) is a broadband wireless technology based on IEEE 802.16-2004 and IEEE 802.16e-2005 that appears to solve this demand. WIMAX is a system that allows wireless data transmission in areas of up to 48 km of radius. It is designed as a wireless alternative to ADSL and a way to connect nodes in wireless metropolitan areas network. Unlike wireless systems that are limited in most cases, about 100 meter, providing greater coverage and more bandwidth. WIMAX promises to achieve high data transmission rates over large areas with a great amount of users. This alternative to the networks of broadband access common as DSL o Wi-Fi, can give broadband access to places quickly to rural areas and developing areas around the world. This paper is a study of WIMAX technology and market situation. First, the paper is responsible for explaining the technical aspects of WIMAX. For this gives an overview of WIMAX standards, physical layer, MAC layer and WiMAX, Technology and Market Beijing University of Post and Telecommunications 2 WIMAX network architecture. Second, the paper address the issue of market in which provides an overview of development and deployment of WIMAX to end the future development trend of WIMAX is addressed. RESUMEN: Por comunicaciones inalámbricas se entiende la transferencia de información desde un lugar a otro sin la necesidad de un soporte físico como es por ejemplo el cable. Por lo que remontándose a los principios de la existencia del ser humano, nos damos cuenta de que el ser humano siempre ha sentido la necesidad de desarrollar técnicas para lograr comunicarse a distancia con sus semejantes. De dicha necesidad, surgieron técnicas tan ancestrales como puede ser la comunicación mediante señales de humo o por reflexión de los rayos solares en espejos entre otras. La curiosidad del ser humano y la necesidad de comunicarse a distancia fue la que llevó a Alexander Graham Bell a inventar el teléfono en 1876. La aparición de un dispositivo que permitía comunicarse a distancia permitiendo escuchar la voz de aquella persona con la que se quería hablar, supuso una revolución no solo en el panorama tecnológico, si no también en el panorama social. Pues a parte de permitir comunicaciones a larga distancia, solventó el problema de la comunicación en “tiempo real”. A raíz de este invento, la tecnología en materia de comunicación ha ido avanzando significativamente, más concretamente en lo referido a las comunicaciones inalámbricas. En 1973 se realizó la primera llamada desde un terminal móvil aunque no fue hasta 1983 cuando se empezó a comercializar dicho terminal, lo que supuso un cambio de hábitos y costumbres para la sociedad. Desde la aparición del primer móvil el crecimiento del mercado ha sido exponencial, lo que ha repercutido en una demanda impensable de nuevas aplicaciones integradas en dichos dispositivos móviles que satisfagan las necesidades que día a día autogenera la sociedad. Tras conseguir realizar llamadas a larga distancia de forma inalámbrica, el siguiente paso fue la creación de los SMS (Short Message System) lo que supuso una nueva revolución además de abaratar costes al usuario a la hora de comunicarse. Pero el gran reto para la industria de las comunicaciones móviles surgió con la aparición de internet. Todo el mundo sentía la necesidad de poder conectarse a esa gran base de datos que es internet en cualquier parte y en cualquier momento. Las primeras conexiones a internet desde dispositivos móviles se realizaron a través de la tecnología WAP (Wireless Application Protocol) hasta la aparición de la tecnología GPRS que permitía la conexión mediante protocolo TCP/IP. A partir de estas conexiones han surgido otras tecnologías, como EDGE, HSDPA, etc., que permitían y permiten la conexión a internet desde dispositivos móviles. Hoy en día la demanda de servicios de red inalámbrica crece de forma rápida y exponencial, todo el mundo quiere servicios de banda ancha en cualquier lugar y en cualquier momento. En este documento se analiza la tecnología WiMAX ( Worldwide Interoperability for Microwave Access) que es una tecnología de banda ancha basada en el estándar IEEE 802.16 creada para brindar servicios a la demanda emergente en la banda ancha desde un punto de vista tecnológico, donde se da una visión de la parte técnica de la tecnología; y desde el punto de vista del mercado, donde se analiza el despliegue y desarrollo de la tecnología desde el punto de vista de negocio. WiMAX es una tecnología que permite la transmisión inalámbrica de datos en áreas de hasta 48Km de radio y que está diseñada como alternativa inalámbrica para ADSL y para conectar nodos de red inalámbrica en áreas metropolitanas. A diferencia de los sistemas inalámbricos existentes que están limitados en su mayoría a unos cientos de metros, WiMAX ofrece una mayor cobertura y un mayor ancho de banda que permita dar soporte a nuevas aplicaciones, además de alcanzar altas tasas de transmisión de datos en grandes áreas con una gran cantidad de usuarios. Se trata de una alternativa a las redes de acceso de banda ancha como DSL o Wi-Fi, que puede dar acceso de banda ancha a lugares tales como zonas rurales o zonas en vías de desarrollo por todo el mundo con rapidez. Existen dos tecnologías de WiMAX, WiMAX fijo (basado en el estándar IEEE 802.16d-2004) y WiMAX móvil (basado en el estándar IEEE 802.16e-2005). La tecnología fija está diseñada para comunicaciones punto a multipunto, mientras que la fija lo está para comunicaciones multipunto a multipunto. WiMAX móvil se basa en la tecnología OFDM que ofrece ventajas en términos de latencia, eficiencia en el uso del espectro y soporte avanzado para antenas. La modulación OFDM es muy robusta frente al multitrayecto, que es muy habitual en los canales de radiodifusión, frente al desvanecimiento debido a las condiciones meteorológicas y frente a las interferencias de RF. Una vez creada la tecnología WiMAX, poseedora de las características idóneas para solventar la demanda del mercado, ha de darse el siguiente paso, hay que convencer a la industria de las telecomunicaciones de que dicha tecnología realmente es la solución para que apoyen su implantación en el mercado de la banda ancha para las redes inalámbricas. Es aquí donde entra en juego el estudio del mercado que se realiza en este documento. WiMAX se enfrenta a un mercado exigente en el que a parte de tener que dar soporte a la demanda técnica, ha de ofrecer una rentabilidad económica a la industria de las comunicaciones móviles y más concretamente a las operadoras móviles que son quienes dentro del sector de las telecomunicaciones finalmente han de confiar en la tecnología para dar soporte a sus usuarios ya que estos al fin y al cabo lo único que quieren es que su dispositivo móvil satisfaga sus necesidades independientemente de la tecnología que utilicen para tener acceso a la red inalámbrica de banda ancha. Quizás el mayor problema al que se ha enfrentado WiMAX haya sido la situación económica en la que se encuentra el mundo. WiMAX a comenzado su andadura en uno de los peores momentos, pero aun así se presenta como una tecnología capaz de ayudar al mundo a salir hacia delante en estos tiempos tan duros. Finalmente se analiza uno de los debates existentes hoy en día en el sector de las comunicaciones móviles, WiMAX vs. LTE. Como se puede observar en el documento realmente una tecnología no saldrá victoriosa frente a la otra, si no que ambas tecnologías podrán coexistir y trabajar de forma conjunta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El retroceso de las costas acantiladas es un fenómeno muy extendido sobre los litorales rocosos expuestos a la incidencia combinada de los procesos marinos y meteorológicos que se dan en la franja costera. Este fenómeno se revela violentamente como movimientos gravitacionales del terreno esporádicos, pudiendo causar pérdidas materiales y/o humanas. Aunque el conocimiento de estos riesgos de erosión resulta de vital importancia para la correcta gestión de la costa, el desarrollo de modelos predictivos se encuentra limitado desde el punto de vista geomorfológico debido a la complejidad e interacción de los procesos de desarrollo espacio-temporal que tienen lugar en la zona costera. Los modelos de predicción publicados son escasos y con importantes inconvenientes: a) extrapolación, extienden la información de registros históricos; b) empíricos, sobre registros históricos estudian la respuesta al cambio de un parámetro; c) estocásticos, determinan la cadencia y magnitud de los eventos futuros extrapolando las distribuciones de probabilidad extraídas de catálogos históricos; d) proceso-respuesta, de estabilidad y propagación del error inexplorada; e) en Ecuaciones en Derivadas Parciales, computacionalmente costosos y poco exactos. La primera parte de esta tesis detalla las principales características de los modelos más recientes de cada tipo y, para los más habitualmente utilizados, se indican sus rangos de aplicación, ventajas e inconvenientes. Finalmente como síntesis de los procesos más relevantes que contemplan los modelos revisados, se presenta un diagrama conceptual de la recesión costera, donde se recogen los procesos más influyentes que deben ser tenidos en cuenta, a la hora de utilizar o crear un modelo de recesión costera con el objetivo de evaluar la peligrosidad (tiempo/frecuencia) del fenómeno a medio-corto plazo. En esta tesis se desarrolla un modelo de proceso-respuesta de retroceso de acantilados costeros que incorpora el comportamiento geomecánico de materiales cuya resistencia a compresión no supere los 5 MPa. El modelo simula la evolución espaciotemporal de un perfil-2D del acantilado que puede estar formado por materiales heterogéneos. Para ello, se acoplan la dinámica marina: nivel medio del mar, cambios en el nivel medio del lago, mareas y oleaje; con la evolución del terreno: erosión, desprendimiento rocoso y formación de talud de derrubios. El modelo en sus diferentes variantes es capaz de incluir el análisis de la estabilidad geomecánica de los materiales, el efecto de los derrubios presentes al pie del acantilado, el efecto del agua subterránea, la playa, el run-up, cambios en el nivel medio del mar o cambios (estacionales o interanuales) en el nivel medio de la masa de agua (lagos). Se ha estudiado el error de discretización del modelo y su propagación en el tiempo a partir de las soluciones exactas para los dos primeros periodos de marea para diferentes aproximaciones numéricas tanto en tiempo como en espacio. Los resultados obtenidos han permitido justificar las elecciones que minimizan el error y los métodos de aproximación más adecuados para su posterior uso en la modelización. El modelo ha sido validado frente a datos reales en la costa de Holderness, Yorkshire, Reino Unido; y en la costa norte del lago Erie, Ontario, Canadá. Los resultados obtenidos presentan un importante avance en los modelos de recesión costera, especialmente en su relación con las condiciones geomecánicas del medio, la influencia del agua subterránea, la verticalización de los perfiles rocosos y su respuesta ante condiciones variables producidas por el cambio climático (por ejemplo, nivel medio del mar, cambios en los niveles de lago, etc.). The recession of coastal cliffs is a widespread phenomenon on the rocky shores that are exposed to the combined incidence of marine and meteorological processes that occur in the shoreline. This phenomenon is revealed violently and occasionally, as gravitational movements of the ground and can cause material or human losses. Although knowledge of the risks of erosion is vital for the proper management of the coast, the development of cliff erosion predictive models is limited by the complex interactions between environmental processes and material properties over a range of temporal and spatial scales. Published prediction models are scarce and present important drawbacks: extrapolation, that extend historical records to the future; empirical, that based on historical records studies the system response against the change in one parameter; stochastic, that represent of cliff behaviour based on assumptions regarding the magnitude and frequency of events in a probabilistic framework based on historical records; process-response, stability and error propagation unexplored; PDE´s, highly computationally expensive and not very accurate. The first part of this thesis describes the main features of the latest models of each type and, for the most commonly used, their ranges of application, advantages and disadvantages are given. Finally as a synthesis of the most relevant processes that include the revised models, a conceptual diagram of coastal recession is presented. This conceptual model includes the most influential processes that must be taken into account when using or creating a model of coastal recession to evaluate the dangerousness (time/frequency) of the phenomenon to medium-short term. A new process-response coastal recession model developed in this thesis has been designed to incorporate the behavioural and mechanical characteristics of coastal cliffs which are composed of with materials whose compressive strength is less than 5 MPa. The model simulates the spatial and temporal evolution of a cliff-2D profile that can consist of heterogeneous materials. To do so, marine dynamics: mean sea level, waves, tides, lake seasonal changes; is coupled with the evolution of land recession: erosion, cliff face failure and associated protective colluvial wedge. The model in its different variants can include analysis of material geomechanical stability, the effect of debris present at the cliff foot, groundwater effects, beach and run-up effects, changes in the mean sea level or changes (seasonal or inter-annual) in the mean lake level. Computational implementation and study of different numerical resolution techniques, in both time and space approximations, and the produced errors are exposed and analysed for the first two tidal periods. The results obtained in the errors analysis allow us to operate the model with a configuration that minimizes the error of the approximation methods. The model is validated through profile evolution assessment at various locations of coastline retreat on the Holderness Coast, Yorkshire, UK and on the north coast of Lake Erie, Ontario, Canada. The results represent an important stepforward in linking material properties to the processes of cliff recession, in considering the effect of groundwater charge and the slope oversteeping and their response to changing conditions caused by climate change (i.e. sea level, changes in lakes levels, etc.).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral es el fruto de un trabajo de investigación cuyo objetivo principal es definir criterios de diseño de protecciones en forma de repié en presas de materiales sueltos cuyo espaldón de aguas abajo esté formado por escollera. La protección propuesta consiste en un relleno de material granular situado sobre el pie de aguas abajo de la presa y formado a su vez por una escollera con características diferenciadas respecto de la escollera que integra el espaldón de la presa. La función de esta protección es evitar que se produzcan deslizamientos en masa cuando una cantidad de agua anormalmente elevada circula accidentalmente por el espaldón de aguas abajo de la presa por distintos motivos como pueden ser el vertido por coronación de la presa o la pérdida de estanqueidad del elemento impermeable o del cimiento. Según los datos de la International Commission on Large Dams (ICOLD 1995) el 70% de las causas de rotura o avería grave en presas de materiales sueltos en el mundo están dentro de las que se han indicado con anterioridad. Esta circulación accidental de agua a través del espaldón de escollera, típicamente turbulenta, se ha denominado en esta tesis percolación (“through flow”, en inglés) para diferenciarla del término filtración, habitualmente utilizada para el flujo laminar a través de un material fino. El fenómeno físico que origina la rotura de presas de materiales sueltos sometidas a percolación accidental es complejo, entrando en juego diversidad de parámetros, muchas veces no deterministas, y con acoplamiento entre procesos, tanto de filtración como de arrastre y deslizamiento. En esta tesis se han realizado diferentes estudios experimentales y numéricos con objeto de analizar el efecto sobre el nivel de protección frente al deslizamiento en masa que producen los principales parámetros geométricos que definen el repié: la anchura de la berma, el talud exterior y su altura máxima desde la base. También se han realizado estudios sobre factores con gran influencia en el fenómeno de la percolación como son la anisotropía del material y el incremento de los caudales unitarios en el pie de presa debidos a la forma de la cerrada. A partir de los resultados obtenidos en las distintas campañas de modelación física y numérica se han obtenido conclusiones respecto a la efectividad de este tipo de protección para evitar parcial o totalmente los daños provocados por percolación accidental en presas de escollera. El resultado final de la tesis es un procedimiento de diseño para este tipo de protecciones. Con objeto de completar los criterios de dimensionamiento, teniendo en cuenta los mecanismos de rotura por erosión interna y arrastre, se han incluido dentro del procedimiento recomendaciones adicionales basadas en investigaciones existentes en la bibliografía técnica. Finalmente, se han sugerido posibles líneas de investigación futuras para ampliar el conocimiento de fenómenos complejos que influyen en el comportamiento de este tipo de protección como son el efecto de escala, la anisotropía de la escollera, las leyes de resistencia que rigen la filtración turbulenta a través de medios granulares, los efectos de cimentaciones poco competentes o la propia caracterización de las propiedades de la escollera de presas. This thesis is the result of a research project that had the main objective of defining criteria to design rockfill toe protections for dams with a highly‐permeable downstream shoulder. The proposed protection consists of a rockfill toe berm situated downstream from the dam with specific characteristics with respect to the rockfill that integrates the shoulder of the main dam. The function of these protections is to prevent mass slides due to an abnormally high water flow circulation through the dam shoulder. This accidental seepage flow may be caused by such reasons as overtopping or the loss of sealing at the impervious element of the dam or its foundation. According to data from the International Commission on Large Dams (ICOLD 1995), 70% of the causes of failure or serious damage in embankment dams in the world are within that described previously. This accidental seepage of water through the rockfill shoulder, typically turbulent, is usually called through‐flow. The physical phenomenon which causes the breakage of the rockfill shoulder during such through‐flow processes is complex, involving diversity of parameters (often not deterministic) and coupling among processes, not only seepage but also internal erosion, drag or mass slide. In this thesis, numerical and experimental research is conducted in order to analyze the effects of the main parameters that define the toe protection, i.e. the toe crest length, its slope and maximum height. Additional studies on significant factors which influence the seepage, such as the anisotropy of the material and the increase of the unit flows at the dam toe due to the valley shape are also performed. In addition, conclusions regarding the effectiveness of this type of protection are obtained based on the results of physical and numerical models. The main result of the thesis is a design procedure for this type of protection to avoid mass sliding. In order to complete the design criteria, additional recommendations about internal and external erosion based on the state of the art are included. Finally, new lines of research are suggested for the future to expand the level of knowledge of the complex phenomena that influence the behavior of this type of protection, such as the effects of scale, rockfill anisotropy, non‐linear seepage laws in turbulent seepage through granular media, effects of erodible foundations, or new procedures to characterize the properties of dam rockfill as a construction material.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El desarrollo de modelos predictivos de retroceso de acantilados costeros se encuentra limitado desde el punto de vista geomorfológico debido a la complejidad e interacción de los procesos de desarrollo espacio-temporal que tienen lugar en la zona costera. Los códigos de cálculo existentes en la actualidad incorporan modelos probabilísticos para resolver la estabilidad geomecánica de los materiales. Éstos pueden reproducir tasas de recesión históricas; sin embargo, el comportamiento bajo condiciones variables (cambio climático) no tiene por qué ser el mismo. Se presenta un modelo de proceso-respuesta de retroceso de acantilados costeros que incorpora el comportamiento geomecánico de costas compuestas por tills, incluye la acción protectora de los derrubios presentes al pie del acantilado frente a los procesos erosivos y permite evaluar el efecto del ascenso del nivel medio del mar asociado al cambio climático. Para ello, se acoplan la dinámica marina: nivel medio del mar, mareas y oleaje; con la evolución del terreno: erosión, desprendimiento rocoso y formación de talud de derrubios. La erosión del acantilado se calcula en función del nivel del mar, de las condiciones del oleaje incidente, de la pendiente de la plataforma rocosa y de la resistencia del material rocoso afectado en cada ciclo de marea. Al finalizar cada ciclo, se evalúa la ruptura del acantilado según un criterio geomecánico de roturas por vuelco y en caso de rotura, se genera un talud de derrubios al pie del mismo. El modelo ha sido validado frente a datos reales en la costa de Holderness, Yorkshire, Reino Unido. Los resultados obtenidos presentan un importante avance en los modelos de recesión costera, especialmente en su relación con las condiciones geomecánicas del medio y su respuesta ante condiciones variables del nivel medio del mar producidas por el cambio climático.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El retroceso de las costas acantiladas es un fenómeno muy extendido sobre los litorales rocosos expuestos a la incidencia combinada de los procesos marinos y meteorológicos que se dan en la franja costera. Este fenómeno se revela violentamente como movimientos gravitacionales del terreno esporádicos, pudiendo causar pérdidas materiales y/o humanas. Aunque el conocimiento de estos riesgos de erosión resulta de vital importancia para la correcta gestión de la costa, su predicción es complicada. Los modelos de predicción publicados son escasos y con importantes inconvenientes: extrapolación, extienden información registros históricos; empíricos, sobre registros históricos estudian respuesta al cambio de un parámetro; estocásticos, determinan la cadencia y magnitud de los eventos futuros extrapolando las distribuciones de probabilidad extraídas de catálogos históricos; proceso-respuesta, de estabilidad y propagación del error inexplorada; en EDPs, computacionalmente costosos y poco exactos. En este trabajo se desarrolla un modelo combinado de proceso-respuesta basado en incorporar un balance de fuerzas de los mecanismos que actúan sobre el proceso erosivo en el frente del acantilado. El modelo simula la evolución espacio-temporal de un perfil-2D del acantilado, formado por materiales heterogéneos, acoplando la dinámica marina con la evolución del terreno en cada periodo de marea. Integra en cada periodo una función de erosión, dependiente de la pendiente de la zona afectada, que se desplaza sobre la onda de marea. Se ha estudiado el error de discretización del modelo y su propagación en el tiempo a partir de las soluciones exactas para los dos primeros periodos de marea para diferentes aproximaciones numéricas en la integración y de la pendiente. Los resultados obtenidos han permitido justificar las discretizaciones que minimizan el error y los métodos de aproximación más adecuados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ya en el informe acerca del estado de la tecnología en la excavación profunda y en la construcción de túneles en terreno duro presentado en la 7ª Conferencia en Mecánica de Suelos e Ingeniería de la Cimentación, Peck (1969) introdujo los tres temas a ser tenidos en cuenta para el diseño de túneles en terrenos blandos: o Estabilidad de la cavidad durante la construcción, con particular atención a la estabilidad del frente del túnel; o Evaluación de los movimientos del terreno inducidos por la construcción del túnel y de la incidencia de los trabajos subterráneos a poca profundidad sobre los asentamientos en superficie; o Diseño del sistema de sostenimiento del túnel a instalar para asegurar la estabilidad de la estructura a corto y largo plazo. Esta Tesis se centra en los problemas señalados en el segundo de los puntos, analizando distintas soluciones habitualmente proyectadas para reducir los movimientos inducidos por la excavación de los túneles. El objeto de la Tesis es el análisis de la influencia de distintos diseños de paraguas de micropilotes, pantalla de micropilotes, paraguas de jet grouting y pantallas de jet grouting en los asientos en superficie durante la ejecución de túneles ejecutados a poca profundidad, con objeto de buscar el diseño que optimice los medios empleados para una determinada reducción de asientos. Para ello se establecen unas premisas para los proyectistas con objeto de conocer a priori cuales son los tratamientos más eficientes (de los propuestos en la Tesis) para la reducción de asientos en superficie cuando se ha de proyectar un túnel, de tal manera que pueda tener datos cualitativos y algunos cuantitativos sobre los diseños más óptimos, utilizando para ello un programa de elementos finitos de última generación que permite realizara la simulación tensodeformación del terreno mediante el modelo de suelo con endurecimiento (Hardening Soil Small model), que es una variante elastoplástica del modelo hiperbólico, similar al Hardening Soil Model. Además, este modelo incorpora una relación entre deformación y el modulo de rigidez, simulando el diferente comportamiento del suelo para pequeñas deformaciones (por ejemplo vibraciones con deformaciones por debajo de 10-5 y grandes deformaciones (deformaciones > 10-3). Para la realización de la Tesis se han elegido cinco secciones de túnel, dos correspondiente a secciones tipo de túnel ejecutado con tuneladora y tres secciones ejecutados mediante convencionales (dos correspondientes a secciones que han utilizado el método Belga y una que ha utilizado el NATM). Para conseguir los objetivos marcados, primeramente se ha analizado mediante una correlación entre modelos tridimensionales y bidimensionales el valor de relajación usado en estos últimos, y ver su variación al cambio de parámetros como la sección del túnel, la cobertera, el procedimiento constructivo, longitud de pase (métodos convencionales) o presión del frente (tuneladora) y las características geotécnicas de los materiales donde se ejecuta el túnel. Posteriormente se ha analizado que diseño de pantalla de protección tiene mejor eficacia respecto a la reducción de asientos, variando distintos parámetros de las características de la misma, como son el empotramiento, el tipo de micropilotes o pilote, la influencia del arriostramiento de las pantallas de protección en cabeza, la inclinación de la pantalla, la separación de la pantalla al eje del túnel y la disposición en doble fila de la pantalla de pantalla proyectada. Para finalizar el estudio de la efectividad de pantalla de protección para la reducción de asiento, se estudiará la influencia de la sobrecarga cercanas (simulación de edificios) tiene en la efectividad de la pantalla proyectada (desde el punto de vista de reducción de movimientos en superficie). Con objeto de poder comparar la efectividad de la pantalla de micropilotes respecto a la ejecución de un paraguas de micropilotes se ha analizado distintos diseños de paraguas, comparando el movimiento obtenido con el obtenido para el caso de pantalla de micropilotes, comparando ambos resultados con los medidos en obras ya ejecutadas. En otro apartado se ha realizado una comparación entre tratamientos similar, comparándolos en este caso con un paraguas de jet grouting y pantallas de jet grouting. Los resultados obtenidos se han con valores de asientos medidos en distintas obras ya ejecutadas y cuyas secciones se corresponden a los empleados en los modelos numéricos. Since the report on the state of technology in deep excavation and tunnelling in hard ground presented at the 7th Conference on Soil Mechanics and Foundation Engineering, Peck (1969) introduced the three issues to be taken into account for the design of tunnels in soft ground: o Cavity Stability during construction, with particular attention to the stability of the tunnel face; o Evaluation of ground movements induced by tunnelling and the effect of shallow underground workings on surface settlement; o Design of the tunnel support system to be installed to ensure short and long term stability of the structure. This thesis focuses on the issues identified in the second point, usually analysing different solutions designed to reduce the movements induced by tunnelling. The aim of the thesis is to analyse the influence of different micropile forepole umbrellas, micropile walls, jet grouting umbrellas and jet grouting wall designs on surface settlements during near surface tunnelling in order to use the most optimal technique to achieve a determined reduction in settlement. This will establish some criteria for designers to know a priori which methods are most effective (of those proposed in the thesis) to reduce surface settlements in tunnel design, so that it is possible to have qualitative and some quantitative data on the optimal designs, using the latest finite element modelling software that allows simulation of the ground’s infinitesimal strain behaviour using the Hardening Soil Small Model, which is a variation on the elasto-plastic hyperbolic model, similar to Hardening Soil model. In addition, this model incorporates a relationship between strain and the rigidity modulus, simulating different soil behaviour for small deformations (eg deformation vibrations below 10-5 and large deformations (deformations > 10-3). For the purpose of this thesis five tunnel sections have been chosen, two sections corresponding to TBM tunnels and three sections undertaken by conventional means (two sections corresponding to the Belgian method and one corresponding to the NATM). To achieve the objectives outlined, a correlation analysis of the relaxation values used in the 2D and 3D models was undertaken to verify them against parameters such as the tunnel cross-section, the depth of the tunnel, the construction method, the length of step (conventional method) or face pressure (TBM) and the geotechnical characteristics of the ground where the tunnel is constructed. Following this, the diaphragm wall design with the greatest efficiency regarding settlement reduction was analysed, varying parameters such as the toe depth, type of micropiles or piles, the influence of bracing of the head protection diaphragm walls, the inclination of the diaphragm wall, the separation between the diaphragm wall and the tunnel axis and the double diaphragm wall design arrangement. In order to complete the study into the effectiveness of protective diaphragm walls ofn the reduction of settlements, the influence of nearby imposed loads (simulating buildings) on the effectiveness of the designed diaphragm walls (from the point of view of reducing surface movements) will be studied. In order to compare the effectiveness of micropile diaphragm walls regarding the installation of micropile forepole umbrellas, different designs of these forepole umbrellas have been analysed comparing the movement obtained with that obtained for micropiled diaphragm walls, comparing both results with those measured from similar completed projects. In another section, a comparison between similar treatments has been completed, comparing the treatments with a forepole umbrella by jet grouting and jet grouting walls. The results obtained compared with settlement values measured in various projects already completed and whose sections correspond to those used in the numerical models.