83 resultados para El pecado que no se puede nombrar

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

..el reto...de acomodar en nuestro sistema eléctrico las energías renovables… con una gran variabilidad en su aportación en función de las condiciones climáticas y, por tanto, con menor firmeza a la hora de asegurar el equilibrio instantáneo entre la producción y el consumo, que constituye un principio sagrado de la estabilidad de los sistemas eléctricos”..La frecuencia de un sistema eléctrico convencional, basado en máquinas sincrónicas, resulta del equilibrio entre las potencias activas generada y consumida. Así, partiendo de una situación estable (potencia consumida igual a generada, y frecuencia igual a la de referencia) la frecuencia tiende a subir cuando se produce un superávit de potencia, es decir, cuando la generación crece por encima de la demanda y, viceversa, tiende a bajar cuando se produce un déficit de potencia. El andar de un coche puede servir de símil: si circulamos por una recta a velocidad constante (la potencia del motor es igual a la disipada en rozamiento con el aire y con el asfalto que, a su vez, es proporcional a la velocidad) y llegamos a una cuesta arriba la velocidad tiende a reducirse (ahora, la potencia del motor es igual a la disipada en rozamiento más la de elevación del coche en contra de la gravedad. Esta última hace que, si la potencia del motor se mantiene igual que antes, la disponible para disipar en rozamiento sea forzosamente menor y el coche vaya más despacio) y para compensar este efecto es necesario pisar el acelerador (ahora la potencia del motor crece, permitiendo compensar la de elevación y mantener constante la de rozamiento). El símil se establece equiparando la velocidad a la frecuencia, la potencia del motor a la potencia generada, y la potencia disipada en rozamiento y en elevación a la potencia consumida.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El inicio de los sistemas de comunicaciones, con el sentido que tienen hoy, puede fijarse en los años de la Revolución Francesa. Bajo la tutela del partido jacobino, cuando éste alcanzó el poder, Claude Chappe inició el desarrollo de una red de comunicaciones que cubrió toda Francia, llegándose a extender, posteriormente, al resto de Europa. Para ello se elaboró, aparte de un sistema óptico, todo un conjunto de normas de fimcionamiento que, en gran medida, son el antecedente de las que se emplean hoy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La asignatura Sistemas Operativos presenta dificultades para su aprendizaje, pero poco se conoce acerca de las mismas, ya que no han sido determinadas ni estudiadas por la literatura. Asimismo, los trabajos existentes sobre la enseñanza y aprendizaje de Sistemas Operativos se limitan a proponer distintos enfoques para impartir la asignatura y en general no evalúan el aprendizaje de los estudiantes para comprobar la eficacia del método propuesto ni usan metodologías de investigación rigurosas. Por otra parte, la impartición de la asignatura Sistemas Operativos en modalidad online ha sido escasamente estudiada y podría tener dificultades adicionales a las de la modalidad presencial, ya que el contexto online impone una serie de restricciones tanto para el profesor como para el estudiante. En la presente tesis se ha llevado a cabo una evaluación formativa en la asignatura Sistemas Operativos, perteneciente al Grado de Ingeniería Informática de una universidad online. El objetivo inicial de la evaluación era descubrir las dificultades de los estudiantes para la comprensión de los conceptos de la asignatura. Posteriormente y, dada la buena aceptación de la evaluación por parte de los estudiantes, se ampliaron los objetivos del trabajo para explorar los efectos de la evaluación realizada sobre el aprendizaje. La evaluación formativa diseñada está basada en la taxonomía revisada de Bloom y sus principales objetivos son: (a) promover el aprendizaje significativo y (b) hacer a los estudiantes conscientes de su proceso de aprendizaje. La metodología de investigación utilizada es el estudio de caso cualitativo y la muestra está constituida por 9 estudiantes del total de 13 matriculados en la asignatura. Los datos cualitativos analizados proceden de las pruebas de evaluación formativa llevadas a cabo por los estudiantes durante la impartición de la asignatura. Los conceptos de sistemas operativos que han resultado más difíciles de comprender en el curso online estudiado han sido las interrupciones y los semáforos. Además, alrededor de estos conceptos se han identificado las dificultades específicas y sus posibles causas. Las dificultades descubiertas acerca de los semáforos corroboran las investigaciones existentes en el área de programación concurrente. El resto de las dificultades identificadas no habían sido determinadas por la literatura existente. En cuanto a los efectos de la evaluación formativa sobre el aprendizaje, la evidencia empírica muestra que ésta ha provocado en los estudiantes una reflexión profunda sobre los conceptos de la asignatura y sobre su propio proceso de aprendizaje. El estudio de caso presentado puede ayudar a los profesores del área de ingeniería a crear evaluaciones formativas en cursos online. La tesis, por tanto, realiza aportaciones relevantes en las áreas de enseñanza y aprendizaje de sistemas operativos, evaluación formativa, metodologías cualitativas y educación online. ABSTRACT Operating Systems is a difficult subject to learn; however little is known about said difficulties, as they have not been studied nor determined by the relevant literature. Existing studies on teaching and learning the subject of operating systems are limited to presenting different approaches for teaching the subject and generally do not evaluate students’ learning to verify the effectiveness of the proposed methods, nor do they use rigorous research methodologies. On the other hand, there are very few studies on teaching operating systems online, which may inherently present more difficulties than the in-person format, since an online context imposes a series of restrictions on both professors and students, such as not having face-to-face interaction for communications. This thesis studies a formative assessment of the subject of operating systems, as part of the Degree in Information Technology Engineering for an online university. The initial objective of this assessment was to determine the students’ difficulties in conceptual comprehension for this subject. Once students had accepted the assessment, the study’s objectives were expanded to include an investigation of the effects of the assessment on learning. The designed formative assessment was based on Revised Bloom’s Taxonomy with the following main objectives: (a) to promote meaningful learning and (b) (b) to make students aware of their learning process. The research methodology involves a qualitative case study with a sample consisting of 9 of the total 13 students registered for this course. The qualitative data analyzed comes from the formative assessment tests taken by these students during the course. The most difficult operating systems concepts for students in the online course were interrupts and semaphores. Additionally, the specific difficulties and their possible causes have been identified. The students’ comprehension difficulties with semaphores corroborate the existing research in the area of concurrent programming. The other identified difficulties were not discussed in the existing literature. Regarding the effects of the formative assessment on learning, the empirical evidence shows that it causes students to reflect carefully on the subject’s concepts as well as their own learning process. The presented case study can help professors in the area of engineering to create formative assessments for online courses. This thesis, therefore, makes relevant contributions to the areas of teaching and learning operating systems, formative assessment, qualitative methodologies, and online education.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las mujeres de la Bauhaus: El camino hacia la arquitectura, no es un simple título, es una secuencia en el tiempo. Al igual que la meta final de la Bauhaus era la Arquitectura, la Construcción, la obra de arte total donde participaban todas las disciplinas; la Escuela, sin la participación femenina hubiese nacido castrada, no hubiese sido la Bauhaus. En una entrevista se le preguntó a un alumno la razón de su ingreso, qué era lo más importante que le hizo tomar dicha decisión, a lo que contestó: “la forma de vida comunitaria de la gente de la Bauhaus”. Las mujeres, en un principio, con ser admitidas ya se daban por satisfechas. Eran disciplinadas, muy trabajadoras y se conformaban con las tareas que se les asignaba. Todos los estudiantes conocían las dificultades que acarreaba el ingreso y ser admitido era un hecho trascendente. Käthe Brachmann, agradecía en 1919 poder formar parte del alumnado: “Por lo tanto, nosotras las mujeres, también vinimos a esta escuela, porque cada una de nosotras encontró un trabajo que realizar aquí ¡que no nos atrevíamos a descuidar! ¡Puede que nadie envidiase nuestro trabajo! Gracias a todos aquellos que nos lo concedieron…” Somos nosotras, las siguientes generaciones de arquitectas, historiadoras, ingenieras, publicistas, diseñadoras… las que envidiamos y resaltamos su trabajo. Cuando Isabelle Anskombe contactó a principios de 1981, a través de Gunta Stölzl, con Marianne Brandt, ésta se encontraba en un asilo cercano a su lugar de nacimiento (antigua DDR) y quedó gratamente sorprendida del interés despertado. A lo largo de treinta años, hemos sido y continuamos siendo muchas mujeres, también algunos hombres, las que hemos impulsado y restituido el largo historial de méritos de las mujeres que estudiaron y trabajaron en la Bauhaus. Era una carencia que persistía desde el cierre de la escuela en 1933. Esta necesidad de restauración de la pequeña historia de la Bauhaus debe ser satisfecha por lo que esta tesis debe ser leída y entendida como una relectura desde sus orígenes en la que se incluyen dos aspectos fundamentales; el primero formado por los trabajos escolares de una parte importante del alumnado constituido por mujeres y el segundo en la consecución de una meta: lograr inscribirse en las clases de arquitectura y conseguir titularse como arquitectas. Este trabajo de investigación demuestra que la asociación de mujeres de la Bauhaus y el taller textil no fue exclusiva, existieron mujeres en otros talleres y lo más importante, hubo mujeres diplomadas en arquitectura. No se puede reducir el interés que despierta esta tesis sólo al ámbito femenino, porque no debemos olvidar que una tesis dedicada a un determinado maestro o alumno del mundo de la arquitectura se entiende que debe tener un interés global. De la misma manera, el estudio de una determinada maestra y de determinadas alumnas no se puede restringir a un determinado sector, debe ser de interés para toda la comunidad científica, no solo para las mujeres. Para que ello ocurra los trabajos de las alumnas deben tener una calidad mínima. Estudiando el fin de carrera de la alumna Vera Meyer-Waldeck y comparándolo con el de sus compañeros se puede afirmar que la complejidad arquitectónica de su trabajo no desmerece ante las dos propuestas ofrecidas por varones. La célebre frase de Marienne Brand en la que describe cuántas bolitas de alpaca tuvo que conformar hasta que por fin alguien le asignó una tarea mucho más gratificante, ilustra la paciencia y el tesón demostrado por ellas a lo largo del tiempo hasta ganarse el respeto entre los maestros y sus compañeros. La imposición inicial que supuso organizar a la mayorÍa de mujeres en el taller de tejidos influyó en un sentimiento femenino de autolimitación, algunas no se sentían capacitadas para la abstracción y el dominio espacial. Ello les llevó a reafirmarse como las más aptas en el campo bidimensional y por tanto convirtieron dicha limitación en un refugio. Se han explicado ejemplos de mujeres que no participaron en el taller textil (inicialmente establecido para ellas) y paulatinamente fueron dando pasos hacía un mayor compromiso con las relaciones espaciales y la arquitectura, a veces sin ser conscientes de ello. La propia Marianne Brandt tiene unas axonométricas fechadas en 1923 y su carnet de la Werkbund la acreditaba como arquitecta de interiores. Al mismo tiempo, Alma Buscher se sentía plena con sus célebres juguetes infantiles de madera en Weimar, pero sin embargo, ya en Dessau, redactó unos magníficos apuntes de construcción de edificios fechados en 1925. Incluso una alumna del taller textil, Benita Otte, sorprendió a sus maestros con una logradísima isométrica de la casa experimental Haus am Horn para la exposición del año 1923. Un ejemplo extraordinario fue el de la arquitecta Friedl Dicker. Una vez hubo abandonado sus estudios en Weimar, ejerció la profesión en Viena junto con su compañero de estudios Franz Singer, construyendo un club de tenis como trabajo más sobresaliente. El hecho de no existir ningún taller específico de arquitectura en Weimar, jugó a su favor, porque el nuevo profesor contratado para tal fin en Dessau era Hannes Meyer, un convencido de que la arquitectura y la vida debían ir a la par. El hijo de Paul Klee recordaba aquella época “Meyer (…) tenía ideas muy diferentes y la Bauhaus de Dessau llegó a estar muy regulada y agarrotada. Ahora todo el mundo estaba orientado hacía la arquitectura. Un estricto programa de 10 horas al día mantenía a la gente ocupada desde muy temprana la mañana hasta bien entrada la noche, y por si esto fuera poco, se enfatizaba la gimnasia y los deportes. Era un contraste muy fuerte respecto a las ideas fundacionales de la Bauhaus de Weimar…” La secuencia de los acontecimientos se ha detallado en el capítulo correspondiente, demostrándose que Gropius llamó conscientemente a Hannes Meyer porque era el hombre adecuado para este nuevo enfoque en Dessau. En el artículo del año 1926 que cautivó a Gropius, Die Neue Welt (los nuevos tiempos), Hannes Meyer colocaba en la misma página un trabajo de El Lissitzky con otro de Sophie Arp-Täuber. Su folleto de publicidad para ingresar en la escuela utilizaba como reclamo la pregunta, ¿buscas la verdadera igualdad como mujer estudiante? Convencido de que el “talento” no era tan importante como una buena predisposición, permitió eliminar el aura creadora que se suponía fundamentalmente masculina. Apasionado hombre político, cautivó a las jóvenes con su espíritu de justicia social, aunque su relación afectiva con Lotte Stam-Beese y con Hans Wittwer dejó al descubierto su temperamento y la dificultad de trabajar con él. El libro de Moholy Nagy titulado Von Material zu Architecktur (De lo material a la arquitectura) aparecido en 1929, impulsó a muchas mujeres a seguir avanzando y les sirvió como acicate, pues algunas se habían adaptado a un estado inferior al de sus plenas capacidades. Una voz autorizada y respetada les comunicaba que todo “ser humano debe tener la oportunidad de experimentar el espacio en la arquitectura”. Desgraciadamente, las teorías (Schopenhauer y posteriormente Freud … Gregorio Marañón) que primaban el sexo de la mujer por encima de su capacidad como persona , habían permitido crear en la opinión pública una cuantificación del grado de masculinidad o feminidad dependiendo de las actividades que se realizasen. Las relaciones espaciales, las ciencias puras, el proceso creador del artista, se habían considerado eminentemente masculinos en contraposición a la cerámica, las artesanías textiles y cualquier trabajo manual repetitivo que debían ser asignados a las mujeres. Betty Friedman denunciaba en 1962 lo que los educadores sexistas habían transmitido a lo largo del tiempo a sus alumnas : “A las mujeres les gusta la belleza tanto como a los hombres, pero quieren una belleza que esté relacionada con el proceso de la vida (…) La mano es tan admirable y digna de respeto como el cerebro.” En la Bauhaus, según avanzaba el tiempo, la integración ganaba terreno a los prejuicios por lo que la mano y el cerebro estaban conectados. Artista y artesano debían ser todo uno y los planes de estudio de la escuela, fieles a su origen de que el fin último era la arquitectura, ya permitían acceder a la sección de construcción (baulehre) a las personas que una vez terminadas las pruebas en el taller textil, quisieran seguir estudiando dentro de la Bauhaus. Las mujeres ya elegían libremente y se inscribían en los demás talleres según sus preferencias. La estudiante de carpintería y futura arquitecta Vera Meyer-Waldeck era entrevistada en la revista de la escuela y contestaba desinhibidamente que “para mí, es exactamente igual de interesante la literatura, el baile o la música, como las formas, el color, la matemáticas o cualquier problema de estática.” Numerosas alumnas estudiaron en la Bauhaus pero no consiguieron el diploma por no terminar todos los semestres requeridos. Fue el caso de Lotte Stam Beese que empezó en el taller textil con la maestra Gunta Stölzl, continuó en el departamento de construcción y, aunque no llega a diplomarse, si ejerció de arquitecta. Después de trabajar en diversos países, se titula en 1940 en la escuela VHBO de Ámsterdam. La entrada de Mies en la escuela cambia el planteamiento social y enfatiza aún más el estudio de la arquitectura. Unifica en su plan de estudios dos disciplinas que Hannes Meyer las tenía separadas: “construcción y acabados” (bau-ausbau) de manera que la pintura mural, la carpintería y todo lo referente al interior-exterior de un edificio se estudia en el mismo taller. Esta unificación presentaba una gran ventaja para las mujeres ya que se podían apuntar sin sentirse comprometidas ni apabulladas por las connotaciones que una carrera de ciencias tenía ya que en realidad, la palabra arquitectura con grandes letras no aparecía. Por supuesto, tal y como se ha detallado en el plan de estudios, existían todo tipo de asignaturas técnicas, pero el hecho de que la arquitectura de interiores, muy asumida en la opinión pública como actividad perfectamente factible para una mujer, se uniese a la actividad constructora, eminentemente masculina hasta entonces, ayudó a desembocar el final de los estudios de varias mujeres en el fin último de la Bauhaus: la arquitectura. Como ejemplo, Vera Meyer-Waldeck, había trabajado activamente en el edificio de Bernau en la creación de las mesas de estudio de los dormitorios dentro de la sección de carpintería (tischlerei), y gracias a la unificación de talleres, puede seguir ampliando conocimientos de construcción de forma gradual. Las alumnas Vera Meyer-Waldeck, María Müller, Hilde Reiss y Annemarie Wilke lograron de esta manera culminar sus estudios con un diploma que las permitía ejercer como arquitectas. Se ha dispuesto de los proyectos y trabajos profesionales en el campo de la arquitectura y el diseño de Vera y Annemarie. Desgraciadamente, de María y Hilde no se ha encontrado material de estudio. También se amplian datos sobre Annemarie Wimmer (Lange de casada), ella no finalizó sus estudios de Bau, pero se diplomó en ausbau (Ausbauabteilung), equivalente a arquitectura de interiores y escribió una guía de arquitectura de Berlín. Es conocido que la Bauhaus no era la única escuela donde las mujeres podían estudiar teoría de la construcción. Existían en la República de Weimar varias escuelas técnicas donde las mujeres estudiaban arquitectura , pero uno de los rasgos diferenciadores de esta escuela era el fuerte sentimiento de comunidad y la relación alumno-profesor. Las clases distendidas las recordaba el alumno Pius Pahl venido de un estricto instituto técnico: “(…) Durante el cuarto semestre intenté estudiar planeamiento urbano con Hilberseimer. Entré en la habitación donde se impartían las clases y me senté un poco apartado respecto a los demás. Ellos iban llegando uno a uno y encontraban sitios en las mesas, bancos, taburetes y alfeizares de las ventanas. Debatían entre ellos. Estaba esperando a Hilbs (Hilberserimer), pero en vano. Después de algún tiempo uno de los estudiantes veteranos apoyado en un radiador se presento como Hilbs. ¡Que sorpresa para un estudiante formado en la Höheres Staatliches Technikum!” Otro rasgo diferenciador frente a las escuelas técnicas era la posibilidad de acceder a la Bauhaus sin un bachillerato previo. Teniendo dotes artísticas y disponibilidad para el trabajo de diseño se podía ingresar en la Bauhaus. Estas condiciones beneficiaban a cierto número de mujeres que no habían tenido posibilidad de una instrucción académica. Como ejemplo, el currículo anterior de la alumna Lotte Burckhardt , matriculada en la sección de carpintería en el año 1928, consistía en haber trabajado en una sastrería, de secretaría y como trabajadora social. La Bauhaus no obstante, presentaba muchos rasgos comunes con otras escuelas surgidas en la República de Weimar. Varios profesores de la Bauhaus fueron contratados por otras escuelas. La escuela Reimann en Berlín (contrató al maestro de fotografía Peterhans una vez clausurada la Bauhaus de Berlín), la de Breslau (contrató a Schlemmer a partir de 1929) y especialmente la de Frankfurt (contrató a Adolf Meyer cuando éste se separa de Gropius) participaban de idearios similares. Esta última escuela estaba directamente relacionada con la oficina municipal de la construcción de Frankfurt, liderada por el arquitecto Ernst May. Bajo sus ordenes trabajó la arquitecta Margarete Schütte-Lihotzky. Ella, junto con un grupo de trabajo, realizaron para la exposición de la Werkbund de 1927- organizada por Mies y en parte por Lilly Reich- unas viviendas prefabricadas. Al igual que en la feria de Frankfurt, aquí también se ocupó del amueblamiento de las cocinas. Su posterior estancia en la Unión Soviética y sus proyectos son comparables con los realizados en la misma época por Lotte Stam-Beese. Estos proyectos se analizarán estableciéndose similitudes. Si bien hay características similares entre todas estas escuelas, un signo distintivo de la Bauhaus era la ausencia de un departamento o sección de modas que en cambio sí existían en las escuelas de Reimann y Frankfurt . La causa inicial era el riesgo de feminización que temía Gropius y que venía precedido por la escuela de Van de Velde. Posteriormente, en el curriculum de Hannes Meyer, que buscaba las necesidades del pueblo en lugar de ambicionar el lujo, no tenía justificación un taller dedicado a la moda. Cuando llegó Mies, la escuela ya estaba muy profesionalizada y las mujeres que estudiaban allí siempre comprendieron que su objetivo era la arquitectura y el diseño de objetos útiles. Curiosamente, Lilly Reich, la maestra de Ausbau (interiorismo), si venía del mundo de la moda. No hay constancia de que ninguna mujer denunciara un trato discriminatorio, así como tampoco parece que ellas sintieran que abrían nuevas vías a otras mujeres . Tenían un sentimiento de comunidad mixta, no se sentían especiales, creían firmemente en un mundo más justo y pensaban que trabajando en la Bauhaus podrían aportar algo nuevo a la sociedad junto con sus compañeros. Según palabras textuales de Walter Gropius: “La Bauhaus sintió el peso de una doble responsabilidad moral: hacer que sus alumnos tomaran plena conciencia de la época en que vivían, y prepararlos para que plasmaran su inteligencia natural y conocimientos adquiridos en diseños de prototipos que expresaran directamente esta conciencia.” La grave crisis económica y la guerra truncaron muchas esperanzas pero esos fuertes lazos duraron en el tiempo . Son incontables las parejas que se formaron en la Bauhaus, muchas de ellas duraderas en el tiempo. Eran numerosos los matrimonios formados por alumnos arquitectos y alumnas de otros talleres que ayudaban y aconsejaban. Quizás, el caso de Gertrud Arndt, llama la atención porque ella quiso originalmente ser arquitecta. Había estado como aprendiz en un estudio de arquitectura de Erfurt y a instancias de su jefe, empezó a documentar fotográficamente los edificios mientras se formaba. Al ver la primera exposición de la Bauhaus del año 1923 y con una beca de estudios, decidió trasladarse a Weimar para estudiar arquitectura. Cuando llegó allí descubrió que no existía tal departamento (solo alumnos aventajados disfrutaban de algunas clases semiparticulares) y después de aprobar el curso preliminar acabó en el taller de tejidos. Una vez hubo completado todos sus estudios, no volvió a trabajar en el diseño textil. Se casó con el arquitecto Alfred Arndt y cuando éste fue nombrado profesor, ella estuvo apoyando a su marido sin dejar de ocuparse de su otra pasión: la fotografía. Gertrud fue redescubierta como fotógrafa en los años 80 y en enero de 2013, el archivo Bauhaus le ha dedicado una exposición monográfica con sus obras textiles y fotográficas. Como anécdota, cabe reseñar la carta que le escribe Gertrud a su amiga Gunta Stölzl, animándola a emigrar a España ya que nuestro país se veía como una oportunidad para trabajar ante una Alemania deprimida económicamente. Tratamiento singular se merece también Hermine Luise Scheper- Berkenkamp, conocida como Lou. Alumna del taller de pintura mural, se casó con su compañero de estudios Hinnerk Scheper. Él terminó como profesor de la escuela y ella se dedicó a ayudarle al tiempo que ejercía de pintora e ilustradora de libros para niños. La prematura muerte de su marido en 1957 le impulsó a ejercer sus funciones. Se hizo cargo de las labores compositivas del color en la arquitectura de numerosos edificios en Berlín. Fue responsable del diseño de color del último proyecto ejecutado por Otto Bartning (un hogar infantil en Berlín), la Filarmónica de Hans Scharoun, el Museo Egipcio, varios edificios de Walter Gropius en los distritos de Berlín Britz, Buckow y Rudow así como el edificio del aeropuerto de Tegel. Cuando murió el 11-4-1976, Lou estaba trabajando en el esquema de color para la construcción de la biblioteca de Scharoun en Berlín. Es una evidencia que el trabajo de la escuela ha pasado a la posteridad fundamentalmente por la creación de objetos, telas, tipografías, fotografías, collages, pinturas, publicidad y técnicas de color. A excepción de sus tres directores, arquitectos de profesión, ni siquiera el arquitecto Breuer logra superar en reconocimiento al Breuer creador de sillas tubulares. Es por tanto mi intención mostrar el lado menos conocido de la escuela más famosa: el trabajo de las arquitectas que surgieron de la Bauhaus. Lamentablemente, el trabajo realizado por Peter Hahn en 1995 y recogido en el libro Bauten und projekte. Bauhaus in Berlín (Construcciones y proyectos. Bauhaus en Berlín) que editó el Bauhaus-archiv, sólo contiene los trabajos realizados por estudiantes y profesores de la escuela en el área metropolitana de Berlín, no aparece plano alguno ni fotografías de ninguna estudiante. Tan solo se citan las biografías de Lilly Reich y Vera Meyer-Waldeck. Con la colaboración del propio archivo Bauhaus, he podido contemplar los trabajos de las alumnas y compararlos con los de sus compañeros que sí figuran en dicho libro. Se analizarán dichos proyectos Por último, una imagen, que parece retroceder en el tiempo: Mies en América con sus estudiantes, solo hombres. Cuando Gropius emigró a Inglaterra, realizó con Maxwell Fry una escuela mixta que continuaba sus planteamientos ético-sociales traspuestos a la arquitectura. Sin embargo, al aceptar el puesto docente en Harvard (1937-1952), donde la educación estaba segregada por sexos -las mujeres aprendían en el Radcliffe College- no debió poder instruir prácticamente a ninguna mujer . La arquitecta Anne Thyn, colaboradora de Louis Kahn, fue una de las escasas alumnas. Empezó en 1944 y se licenció en 1949. ¿Coincidirían en alguna clase? Parece que la guerra hizo retroceder los espacios ganados por las mujeres, al menos en Estados Unidos. La feminista Bety Fridman denunciaba una vuelta de la mujer al hogar y a “ese malestar que no tiene nombre” denominado por ella la mística de la feminidad. En el año 1953, en América se publicaban manuales dirigidos a las mujeres en los siguientes términos: “En el momento histórico actual, la muchacha más adaptada probablemente sea la que es lo suficientemente inteligente como para tener buenas notas es la escuela pero no tan brillante como para sacar sobresaliente en todo (…); la que es competente, pero no en áreas relativamente nuevas para las mujeres; la que sabe ser independiente y ganarse la vida, pero no tanto como para competir con lo s varones; la que es capaz de hacer bien algún trabajo (en el supuesto de que no se case o si por otras razones no tiene más remedio que trabajar) pero no está tan identificada con una profesión como para necesitar ejercerla para ser feliz.” Afortunadamente, las protagonistas de esta tesis se sentían tan identificadas con su profesión que necesitaban ejercerla para ser personas, porque “ser mujer no es ni más ni menos que ser humana” ABSTRACT The Bauhaus was created in 1919 in a brand new government which looks for a rapprochement between the people and university elites. A new, modern and democratic perspective where the ideals of collectivism and individualism come together to serve the same cause: architecture, total construction. To access the Bauhaus previous studies were not necessary, just an artistic disposition. The Weimar period lasted until 1925, year in which were expelled finding a new headquarters in Dessau. The school appealed especially to young people wanting to learn and in need of change. For women marked a double jump, to acquire a profession and feel equal to their peers. Its founder, Walter Gropius, wanted to combine artistic creation of standardized design prototypes looking for a common goal around the architecture. Under the slogan "art and industry, a new unit," an exhibition from 15 August to 30 September 1923 where the pilot house called "Haus am Horn", executed and organized by all the school's workshops and in which some female students were able to demonstrate his extraordinary talent. When the Bauhaus moved to Dessau, Gropius invited architect Hannes Meyer to join them for the inauguration of the architecture section. No sooner had Meyer joint the Bauhaus when he became the new director. He advertised the school under the slogan “Come to the Bauhaus” with which he wanted to attract more female students. In his advertising papers, Mayer asked “Are you looking for a real equality as a female student?” During his mandate the Bauhaus sought predisposition for artistic talent to face a new and fairer world. “The needs of the people instead of a lust for luxury” were also reflected in the new architecture. The female students Lotte Gerson and Lotte Besse enrolled themselves in 1929 in the construction section. The destitution of Hannes Meyer in summer in 1930 made the designation of Mies van der Rohe, the school’s last director. Lilly Reich substituted master Gunta Stölzl. This well known couple of professionals with professor Hilberseimer formed a global section of construction-interior design (bau-ausbau) where edification and urbanism a quota of exigency not fewer than any other technical school in Germany. The Bauhaus, harassed by the Nazis, was obligated to leave their headquarters in Dessau, to move to Berlin, as a private institute in an abandoned factory. Before leaving Dessau, four women got their architect diplomas. These women were Hilde Reiss, Maria Müller, Annemarie Wilke and Wera Meyer Waldeck The closing of the Berlin headquarters in 1933 by the Nazi government, at the time the Weimar Republic ended with Hitler’s raise to the power. This made the Bauhaus a symbol of the sullied freedom by totalitarianism. The work and biography of the following female architects that represent the three headquarters of the school is analyzed here: -Friedl Dicker in Weimar -Wera Meyer-Waldeck in Dessau - Annemarie Wilke in Berlin.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

habilidades de comprensión y resolución de problemas. Tanto es así que se puede afirmar con rotundidad que no existe el método perfecto para cada una de las etapas de desarrollo y tampoco existe el modelo de ciclo de vida perfecto: cada nuevo problema que se plantea es diferente a los anteriores en algún aspecto y esto hace que técnicas que funcionaron en proyectos anteriores fracasen en los proyectos nuevos. Por ello actualmente se realiza un planteamiento integrador que pretende utilizar en cada caso las técnicas, métodos y herramientas más acordes con las características del problema planteado al ingeniero. Bajo este punto de vista se plantean nuevos problemas. En primer lugar está la selección de enfoques de desarrollo. Si no existe el mejor enfoque, ¿cómo se hace para elegir el más adecuado de entre el conjunto de los existentes? Un segundo problema estriba en la relación entre las etapas de análisis y diseño. En este sentido existen dos grandes riesgos. Por un lado, se puede hacer un análisis del problema demasiado superficial, con lo que se produce una excesiva distancia entre el análisis y el diseño que muchas veces imposibilita el paso de uno a otro. Por otro lado, se puede optar por un análisis en términos del diseño que provoca que no cumpla su objetivo de centrarse en el problema, sino que se convierte en una primera versión de la solución, lo que se conoce como diseño preliminar. Como consecuencia de lo anterior surge el dilema del análisis, que puede plantearse como sigue: para cada problema planteado hay que elegir las técnicas más adecuadas, lo que requiere que se conozcan las características del problema. Para ello, a su vez, se debe analizar el problema, eligiendo una técnica antes de conocerlo. Si la técnica utiliza términos de diseño entonces se ha precondicionado el paradigma de solución y es posible que no sea el más adecuado para resolver el problema. En último lugar están las barreras pragmáticas que frenan la expansión del uso de métodos con base formal, dificultando su aplicación en la práctica cotidiana. Teniendo en cuenta todos los problemas planteados, se requieren métodos de análisis del problema que cumplan una serie de objetivos, el primero de los cuales es la necesidad de una base formal, con el fin de evitar la ambigüedad y permitir verificar la corrección de los modelos generados. Un segundo objetivo es la independencia de diseño: se deben utilizar términos que no tengan reflejo directo en el diseño, para que permitan centrarse en las características del problema. Además los métodos deben permitir analizar problemas de cualquier tipo: algorítmicos, de soporte a la decisión o basados en el conocimiento, entre otros. En siguiente lugar están los objetivos relacionados con aspectos pragmáticos. Por un lado deben incorporar una notación textual formal pero no matemática, de forma que se facilite su validación y comprensión por personas sin conocimientos matemáticos profundos pero al mismo tiempo sea lo suficientemente rigurosa para facilitar su verificación. Por otro lado, se requiere una notación gráfica complementaria para representar los modelos, de forma que puedan ser comprendidos y validados cómodamente por parte de los clientes y usuarios. Esta tesis doctoral presenta SETCM, un método de análisis que cumple estos objetivos. Para ello se han definido todos los elementos que forman los modelos de análisis usando una terminología independiente de paradigmas de diseño y se han formalizado dichas definiciones usando los elementos fundamentales de la teoría de conjuntos: elementos, conjuntos y relaciones entre conjuntos. Por otro lado se ha definido un lenguaje formal para representar los elementos de los modelos de análisis – evitando en lo posible el uso de notaciones matemáticas – complementado con una notación gráfica que permite representar de forma visual las partes más relevantes de los modelos. El método propuesto ha sido sometido a una intensa fase de experimentación, durante la que fue aplicado a 13 casos de estudio, todos ellos proyectos reales que han concluido en productos transferidos a entidades públicas o privadas. Durante la experimentación se ha evaluado la adecuación de SETCM para el análisis de problemas de distinto tamaño y en sistemas cuyo diseño final usaba paradigmas diferentes e incluso paradigmas mixtos. También se ha evaluado su uso por analistas con distinto nivel de experiencia – noveles, intermedios o expertos – analizando en todos los casos la curva de aprendizaje, con el fin de averiguar si es fácil de aprender su uso, independientemente de si se conoce o no alguna otra técnica de análisis. Por otro lado se ha estudiado la capacidad de ampliación de modelos generados con SETCM, para comprobar si permite abordar proyectos realizados en varias fases, en los que el análisis de una fase consista en ampliar el análisis de la fase anterior. En resumidas cuentas, se ha tratado de evaluar la capacidad de integración de SETCM en una organización como la técnica de análisis preferida para el desarrollo de software. Los resultados obtenidos tras esta experimentación han sido muy positivos, habiéndose alcanzado un alto grado de cumplimiento de todos los objetivos planteados al definir el método.---ABSTRACT---Software development is an inherently complex activity, which requires specific abilities of problem comprehension and solving. It is so difficult that it can even be said that there is no perfect method for each of the development stages and that there is no perfect life cycle model: each new problem is different to the precedent ones in some respect and the techniques that worked in other problems can fail in the new ones. Given that situation, the current trend is to integrate different methods, tools and techniques, using the best suited for each situation. This trend, however, raises some new problems. The first one is the selection of development approaches. If there is no a manifestly single best approach, how does one go about choosing an approach from the array of available options? The second problem has to do with the relationship between the analysis and design phases. This relation can lead to two major risks. On one hand, the analysis could be too shallow and far away from the design, making it very difficult to perform the transition between them. On the other hand, the analysis could be expressed using design terminology, thus becoming more a kind of preliminary design than a model of the problem to be solved. In third place there is the analysis dilemma, which can be expressed as follows. The developer has to choose the most adequate techniques for each problem, and to make this decision it is necessary to know the most relevant properties of the problem. This implies that the developer has to analyse the problem, choosing an analysis method before really knowing the problem. If the chosen technique uses design terminology then the solution paradigm has been preconditioned and it is possible that, once the problem is well known, that paradigm wouldn’t be the chosen one. The last problem consists of some pragmatic barriers that limit the applicability of formal based methods, making it difficult to use them in current practice. In order to solve these problems there is a need for analysis methods that fulfil several goals. The first one is the need of a formal base, which prevents ambiguity and allows the verification of the analysis models. The second goal is design-independence: the analysis should use a terminology different from the design, to facilitate a real comprehension of the problem under study. In third place the analysis method should allow the developer to study different kinds of problems: algorithmic, decision-support, knowledge based, etc. Next there are two goals related to pragmatic aspects. Firstly, the methods should have a non mathematical but formal textual notation. This notation will allow people without deep mathematical knowledge to understand and validate the resulting models, without losing the needed rigour for verification. Secondly, the methods should have a complementary graphical notation to make more natural the understanding and validation of the relevant parts of the analysis. This Thesis proposes such a method, called SETCM. The elements conforming the analysis models have been defined using a terminology that is independent from design paradigms. Those terms have been then formalised using the main concepts of the set theory: elements, sets and correspondences between sets. In addition, a formal language has been created, which avoids the use of mathematical notations. Finally, a graphical notation has been defined, which can visually represent the most relevant elements of the models. The proposed method has been thoroughly tested during the experimentation phase. It has been used to perform the analysis of 13 actual projects, all of them resulting in transferred products. This experimentation allowed evaluating the adequacy of SETCM for the analysis of problems of varying size, whose final design used different paradigms and even mixed ones. The use of the method by people with different levels of expertise was also evaluated, along with the corresponding learning curve, in order to assess if the method is easy to learn, independently of previous knowledge on other analysis techniques. In addition, the expandability of the analysis models was evaluated, assessing if the technique was adequate for projects organised in incremental steps, in which the analysis of one step grows from the precedent models. The final goal was to assess if SETCM can be used inside an organisation as the preferred analysis method for software development. The obtained results have been very positive, as SETCM has obtained a high degree of fulfilment of the goals stated for the method.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El deterioro del hormigón por ciclos de hielo-deshielo en presencia de sales fundentes es causa frecuente de problemas en los puentes e infraestructuras existentes en los países europeos. Los daños producidos por los ciclos de hielo-deshielo en el hormigón pueden ser internos, fundamentalmente la fisuración y/o externos como el descascarillamiento (desgaste superficial). La España peninsular presenta unas características geográficas y climáticas particulares. El 18% de la superficie tiene una altura superior a 1000mts y, además, la altura media geográfica con respecto al nivel del mar es de 660mts (siendo el segundo país más montañoso de toda Europa).Esto hace que la Red de Carreteras del Estado se vea afectada, durante determinados periodos, por fenómenos meteorológicos adversos, en particular por nevadas y heladas, que pueden comprometer las condiciones de vialidad para la circulación de vehículos. Por este motivo la Dirección General de Carreteras realiza trabajos anualmente (campañas de vialidad invernal, de 6 meses de duración) para el mantenimiento de la vialidad de las carreteras cuando éstas se ven afectadas por estos fenómenos. Existen protocolos y planes operativos que permiten sistematizar estos trabajos de mantenimiento que, además, se han intensificado en los últimos 10 años, y que se fundamentan en el empleo de sales fundentes, principalmente NaCl, con la misión de que no haya placas de hielo, ni nieve, en las carreteras. En zonas de fuerte oscilación térmica, que con frecuencia en España se localizan en la zona central del Pirineo, parte de la cornisa Cantábrica y Sistema Central, se producen importantes deterioros en las estructuras y paramentos de hormigón producidos por los ciclos de hielo- deshielo. Pero además el uso de fundentes de vialidad invernal acelera en gran medida la evolución de estos daños. Los tableros de hormigón de puentes de carretera de unos 40-50 años de antigüedad carecen, en general, de un sistema de impermeabilización, y están formados frecuentemente por un firme de mezcla asfáltica, una emulsión adherente y el hormigón de la losa. En la presente tesis se realiza una investigación que pretende reproducir en laboratorio los procesos que tienen lugar en el hormigón de tableros de puentes existentes de carreteras, de unos 40-50 años de antigüedad, que están expuestos durante largos periodos a sales fundentes, con objeto de facilitar la vialidad invernal, y a cambios drásticos de temperatura (hielo y deshielo). Por ello se realizaron cuatro campañas de investigación, teniendo en cuenta que, si bien nos basamos en la norma europea UNE-CEN/TS 12390-9 “Ensayos de hormigón endurecido. Resistencia al hielo-deshielo. Pérdida de masa”, se fabricaron probetas no estandarizadas para este ensayo, pensado en realidad para determinar la afección de los ciclos únicamente a la pérdida de masa. Las dimensiones de las probetas en nuestro caso fueron 150x300 mm, 75 x 150mm (cilíndricas normalizadas para roturas a compresión según la norma UNE-EN 12390-3) y 286x76x76 (prismáticas normalizadas para estudiar cambio de volumen según la norma ASTM C157), lo cual nos permitió realizar sobre las mismas probetas más ensayos, según se presentan en la tesis y, sobre todo, poder comparar los resultados con probetas extraídas de dimensiones similares en puentes existentes. En la primera campaña, por aplicación de la citada norma, se realizaron ciclos de H/D, con y sin contacto con sales de deshielo (NaCl en disolución del 3% según establece dicha norma). El hormigón fabricado en laboratorio, tratando de simular el de losas de tableros de puentes antiguos, presentó una fc de 22,6 MPa y relación agua/cemento de 0,65. Las probetas de hormigón fabricadas se sometieron a ciclos agresivos de hielo/deshielo (H/D), empleando una temperatura máxima de +20ºC y una temperatura mínima de -20ºC al objeto de poder determinar la sensibilidad de este ensayo tanto al tipo de hormigón elaborado como al tipo de probeta fabricado (cilíndrica y prismática). Esta campaña tuvo una segunda fase para profundizar más en el comportamiento de las probetas sometidas a ciclos H/D en presencia de sales. En la segunda campaña, realizada sobre probetas de hormigón fabricadas en laboratorio iguales a las anteriores, la temperaturas mínima del ensayo se subió a -14ºC, lo que nos permitió analizar el proceso de deterioro con más detalle. (Realizando una serie de ensayos de caracterización no destructivos y otros destructivos, y validando su aplicación a la detección de los deterioros causados tras los ensayos acelerados de hielodeshielo. También mediante aplicación de técnicas de microscopía electrónica.) La tercera campaña, se realizó sobre probetas de hormigón de laboratorio similares a las anteriores, fc de 29,3Mpa y relación a/c de 0,65, en las que se aplicó en una cara un revestimiento asfáltico de 2-4cms, según fueran prismáticas y cilíndricas respectivamente, compuesto por una mezcla asfáltica real (AC16), sobre una imprimación bituminosa. (Para simular el nivel de impermeabilización que produce un firme sobre el tablero de un puente) La cuarta campaña, se desarrolló tras una cuidadosa selección de dos puentes de hormigón de 40-50 años de antigüedad, expuestos y sensibles a deterioros de hielodeshielo, y en carreteras con aportación de fundentes. Una vez esto se extrajeron testigos de hormigón de zonas sanas (nervios del tablero), para realizar en laboratorio los mismos ensayos acelerados de hielo-deshielo y de caracterización, de la segunda campaña, basados en la misma norma. De los resultados obtenidos se concluye que cuando se emplean sales fundentes se acelera de forma significativa el deterioro, aumentando tanto el contenido de agua en los poros como el gradiente generado (mecanismo de deterioro físico). Las sales de deshielo aceleran claramente la aparición del daño, que se incrementa incluso en un factor de 5 según se constata en esta investigación para los hormigones ensayados. Pero además se produce un gradiente de cloruros que se ha detectado tanto en los hormigones diseñados en laboratorio como en los extraídos de puentes existentes. En casi todos los casos han aparecido cambios en la microestructura de la pasta de cemento (mecanismo de deterioro químico), confirmándose la formación de un compuesto en el gel CSH de la pasta de cemento, del tipo Ca2SiO3Cl2, que posiblemente está contribuyendo a la alteración de la pasta y a la aceleración de los daños en presencia de sales fundentes. Existe un periodo entre la aparición de fisuración y la pérdida de masa. Las fisuras progresan rápidamente desde la interfase de los áridos más pequeños y angulosos, facilitando así el deterioro del hormigón. Se puede deducir así que el tipo de árido afecta al deterioro. En el caso de los testigos con recubrimiento asfáltico, parece haberse demostrado que la precipitación de sales genera tensiones en las zonas de hormigón cercanas al recubrimiento, que terminan por fisurar el material. Y se constata que el mecanimo de deterioro químico, probablemente tenga más repercusión que el físico, por cuanto el recubrimiento asfáltico es capaz de retener suficiente agua, como para que el gradiente de contenido de agua en el hormigón sea mucho menor que sin el recubrimiento. Se constató, sin embargo, la importancia del gradiente de cloruros en el hormigon. Por lo que se deduce que si bien el recubrimiento asfáltico es ciertamente protector frente a los ciclos H/D, su protección disminuye en presencia de sales; es decir, los cloruros acabarán afectando al hormigón del tablero del puente. Finalmente, entre los hormigones recientes y los antiguos extraídos de puentes reales, se observa que existen diferencias significativas en cuanto a la resistencia a los ciclos H/D entre ellos. Los hormigones más recientes resultan, a igualdad de propiedades, más resistentes tanto a ciclos de H/D en agua como en sales. Posiblemente el hecho de que los hormigones de los puentes hayan estado expuestos a condiciones de temperaturas extremas durante largos periodos de tiempo les ha sensibilizado. La tesis realizada, junto con nuevos contrastes que se realicen en el futuro, nos permitirá implementar una metodología basada en la extracción de testigos de tableros de puente reales para someterlos a ensayos de hielo-deshielo, basados en la norma europea UNECEN/ TS 12390-9 aunque con probetas no normalizadas para el mismo, y, a su vez, realizar sobre estas probetas otros ensayos de caracterización destructivos, que posibilitarán evaluar los daños ocasionados por este fenómeno y su evolución temporal, para actuar consecuentemente priorizando intervenciones de impermeabilización y reparación en el parque de puentes de la RCE. Incluso será posible la elaboración de mapas de riesgo, en función de las zonas de climatología más desfavorable y de los tratamientos de vialidad invernal que se lleven a cabo. Concrete damage by freeze-thaw cycles in the presence of melting salts frequently causes problems on bridges and infrastructures in European countries. Damage caused by freeze-thaw cycles in the concrete can be internal, essentially cracking and / or external as flaking (surface weathering due to environmental action). The peninsular Spain presents specific climatic and geographical characteristics. 18% of the surface has a height greater than 1,000 m and the geographical average height from the sea level is 660 m (being the second most mountainous country in Europe). This makes the National Road Network affected during certain periods due to adverse weather, particularly snow and ice, which can compromise road conditions for vehicular traffic. For this reason the National Road Authority performs works annually (Winter Road Campaign, along 6 months) to maintain the viability of the roads when they are affected by these phenomena. There are protocols and operational plans that allow systematize these maintenance jobs, that also have intensified in the last 10 years, and which are based on the use of deicing salts, mainly NaCl, with the mission that no ice sheets, or snow appear on the roads. In areas of strong thermal cycling, which in Spain are located in the central area of the Pyrenees, part of the Cantabrian coast and Central System, significant deterioration take place in the structures and wall surfaces of concrete due to freeze-thaw. But also the use of deicing salts for winter maintenance greatly accelerated the development of such damages. The concrete decks for road bridges about 40-50 years old, lack generally a waterproofing system, and are often formed by a pavement of asphalt, an adhesive emulsion and concrete slab. In this thesis the research going on aims to reproduce in the laboratory the processes taking place in the concrete of an existing deck at road bridges, about 40-50 years old, they are exposed for long periods to icing salt, to be performed in order to facilitate winter maintenance, and drastic temperature changes (freezing and thawing). Therefore four campaigns of research were conducted, considering that while we rely on the European standard UNE-CEN/TS 12390-9 "Testing hardened concrete. Freezethaw resistance. Mass loss", nonstandard specimens were fabricated for this test, actually conceived to determine the affection of the cycles only to the mass loss. Dimensions of the samples were in our case 150x300 mm, 75 x 150mm (standard cylindrical specimens for compression fractures UNE-EN 12390-3) and 286x76x76 (standard prismatic specimens to study volume change ASTM C157), which allowed us to carry on same samples more trials, as presented in the thesis, and especially to compare the results with similar sized samples taken from real bridges. In the first campaign, by application of that European standard, freeze-thaw cycles, with and without contact with deicing salt (NaCl 3% solution in compliance with such standard) were performed. Concrete made in the laboratory, trying to simulate the old bridges, provided a compressive strength of 22.6 MPa and water/cement ratio of 0.65. In this activity, the concrete specimens produced were subjected to aggressive freeze/thaw using a maximum temperature of +20ºC and a minimum temperature of - 20°C in order to be able to determine the sensitivity of this test to the concrete and specimens fabricated. This campaign had a second phase to go deeper into the behavior of the specimens subjected to cycled freeze/thaw in the presence of salts. In the second campaign, conducted on similar concrete specimens manufactured in laboratory, temperatures of +20ºC and -14ºC were used in the tests, which allowed us to analyze the deterioration process in more detail (performing a series of non-destructive testing and other destructive characterization, validating its application to the detection of the damage caused after the accelerated freeze-thaw tests, and also by applying electron microscopy techniques). The third campaign was conducted on concrete specimens similar to the above manufactured in laboratory, both cylindrical and prismatic, which was applied on one side a 4 cm asphalt coating, consisting of a real asphalt mixture, on a bituminous primer (for simulate the level of waterproofing that produces a pavement on the bridge deck). The fourth campaign was developed after careful selection of two concrete bridges 40- 50 years old, exposed and sensitive to freeze-thaw damage, in roads with input of melting salts. Concrete cores were extracted from healthy areas, for the same accelerated laboratory freeze-thaw testing and characterization made for the second campaign, based on the same standard. From the results obtained it is concluded that when melting salts are employed deterioration accelerates significantly, thus increasing the water content in the pores, as the gradient. Besides, chloride gradient was detected both in the concrete designed in the laboratory and in the extracted in existing bridges. In all cases there have been changes in the microstructure of the cement paste, confirming the formation of a compound gel CSH of the cement paste, Ca2SiO3Cl2 type, which is possibly contributing to impair the cement paste and accelerating the damage in the presence of melting salts. The detailed study has demonstrated that the formation of new compounds can cause porosity at certain times of the cycles may decrease, paradoxically, as the new compound fills the pores, although this phenomenon does not stop the deterioration mechanism and impairments increase with the number of cycles. There is a period between the occurrence of cracking and mass loss. Cracks progress rapidly from the interface of the smallest and angular aggregate, thus facilitating the deterioration of concrete. It can be deduced so the aggregate type affects the deterioration. The presence of melting salts in the system clearly accelerates the onset of damage, which increases even by a factor of 5 as can be seen in this investigation for concrete tested. In the case of specimens with asphalt coating, it seems to have demonstrated that the precipitation of salts generate tensions in the areas close to the concrete coating that end up cracking the material. It follows that while the asphalt coating is certainly a protection against the freeze/thaw cycles, this protection decreases in the presence of salts; so the chlorides will finally affect the concrete bridge deck. Finally, among the recent concrete specimens and the old ones extracted from real bridges, it is observed that the mechanical strengths are very similar to each other, as well as the porosity values and the accumulation capacity after pore water saturation. However, there are significant differences in resistance to freeze/thaw cycles between them. More recent concrete are at equal properties more resistant both cycles freeze/thaw in water with or without salts. Possibly the fact that concrete bridges have been exposed to extreme temperatures for long periods of time has sensitized them. The study, along with new contrasts that occur in the future, allow us to implement a methodology based on the extraction of cores from the deck of real bridges for submission to freeze-thaw tests based on the European standard UNE-CEN/TS 12390-9 even with non-standard specimens for it, and in turn, performed on these samples other destructive characterization tests, which will enable to assess the damage caused by this phenomenon and its evolution, to act rightly prioritizing interventions improving the waterproofing and other repairs in the bridge stock of the National Road Network. It will even be possible to develop risk maps, depending on the worst weather areas and winter road treatments to be carried out.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El espacio geográfico, entendido como territorio que da soporte a la vida y a la civilización, ha estado siempre fuertemente supeditado a la presencia de agua. Desde la Prehistoria el hombre otorgó al agua, junto a otros elementos que aseguraban o protegían su vida, un valor superior, por encima de lo humano. Paralelamente y de manera natural, el jardín, en sus inicios en estrecha relación con la agricultura y con el paisaje, fue el ámbito idóneo para la creación de nuevas formas acuáticas artificiales. Este proceso dio lugar a un extenso repertorio de formas compositivas que parece que tuvo en el Renacimiento un punto de inflexión, en el que se observa como la mayoría de recursos y configuraciones básicas del agua estaban ya plenamente establecidas. Esta evolución y sus resultados ha sido el objeto de la primera parte de la tesis: su objetivo ha sido analizar cómo el agua configura, cualifica o puede llegar a construir el jardín y el territorio en el que se inserta, así como establecer las posibles relaciones entre estos dos ámbitos de estudio. Aunque la historia es su fundamento, el planteamiento aquí ha sido más bien conceptual; estudiando los componentes acuáticos desde un punto de vista fundamentalmente compositivo. Esta indagación previa ha sido indispensable para llegar a entender en profundidad los modos en los que el agua se muestra en el jardín y en el paisaje renacentista y manierista, momentos en que se insertan los dos casos de estudio que constituyen la segunda parte de la tesis. Sin caer en un determinismo geográfico extremo, puede admitirse que el jardín, como manifestación cultural intrínsecamente ligada al entorno, depende fuertemente del territorio en el que se asienta; hecho particularmente evidente en aquellas regiones en las que su especial geografía ha sido un claro factor condicionante de su historia. Por ello, Holanda y España han sido las dos localizaciones elegidas para profundizar en este estudio; no tanto por su estrecha relación política y cultural, sino por su profundo y sugerente contraste de medio físico y climático. La Península Ibérica, geográficamente el término del mundo conocido en Occidente hasta el final de la Edad Media, y por esta circunstancia convertida en destino, en territorio de permanencia y fusión, estará además supeditada en la mayoría de su territorio a la falta de agua, siendo a la vez heredera directa del universo y la tradición del jardín meridional originario de Oriente. En el extremo opuesto, Holanda, espacio de transición entre el mar y la tierra firme “real”, es un territorio permeado de humedad y surcado con generosidad por grandes ríos. El país, con una relación ambivalente con el agua, unas veces como amenaza y otras como fuente de nuevas oportunidades, será por el contrario especialmente favorable para el desarrollo de un modelo de jardín septentrional. Un jardín del norte, que no obstante, no surgirá de despejar los bosques, como en el arquetipo nórdico, sino que crecerá sobre planicies antes saturadas de agua o directamente anegadas. El marco temporal de los dos casos concretos ha considerado como fecha inicial 1548, momento en el que Felipe II, aún príncipe, realizó su primer viaje a los Países Bajos, y entró en contacto con el modelo holandés. La extensa producción posterior de jardines de Felipe II, siempre con el agua como protagonista, tuvo como destacado referente la adaptación al suelo y la geografía hispánicos de dicho modelo. Como fecha final se fija 1648, justo un siglo después, fecha coincidente con la firma de la Paz de Westfalia, tratado que supone la total reorganización política del territorio europeo y la pérdida de la hegemonía española en Europa. En Holanda sólo dos años después nacerá Guillermo III de Orange, estatúder de las Provincias Unidas, también futuro rey de Inglaterra, Escocia e Irlanda. Para entonces en Holanda ya se había asistido al desarrollo de un arte propio de jardín, íntimamente ligado al agua, sorprendentemente no demasiado bien conocido y que será uno de los temas de esta investigación. Finalmente, se propone una lectura conjunta de toda esta serie de intervenciones que tienen como argumento el agua, en la que se integra la información procedente de distintos campos de estudio, cada una con su metodología particular. El resultado es una tesis en la que el jardín y el territorio son tratados desde un nuevo y enriquecedor punto de vista. ABSTRACT Geographical space, understood as the territory that provides support to human life and civilization, has always been strongly subjected to the presence of water. From Prehistory man gave to water, along with other elements that ensured or protected life, a higher value than the merely human. At the same time and in a natural way, the garden, in its beginnings with a close relationship with agriculture and landscape, soon developed as the appropriate ground for the creation of new artificial aquatic forms, in a process that seems to have a turning point in the Renaissance, when most of the basic waterworks and resources were already fully established. This development and its outcomes are the subjects of the first part of the thesis: its scope has been to analyse how water configures, qualifies and might even help to construct the garden or landscape attached to it; and to establish the possible links between these two fields of study. Although history based, the point of view here is mainly conceptual, studying the water components understood as composite elements. This exploratory research has been essential to deeply understand the water patterns shown in the Renaissance and Mannerist garden and landscape, periods in which the two case studies are inserted. Without falling in extreme determinism, it can be accepted however, that garden, as a cultural expression linked to environment, is strongly dependant on territorial setting; something particularly evident in those areas where specific geography has been a clear history conditioning factor. This is the reason that leads to choose the Netherlands and Spain to deepen this study, no so much for their interesting cultural and politics relations as for the suggestive and profound contrast of their physical environment and climate. The Iberian Peninsula, geographically the limit of the known world in Occident until the end of the Medium Age, and by this circumstance understood as endpoint, more a destination than a crossroad, a territory of permanence and fusion, but also subjected to water shortage; is thus associated with the universe and tradition of the meridional garden imported from Orient. In the opposite, the Netherlands, a transitional space between the sea and the “real” firm land, is a territory permeated by water and crossed by big rivers. Always with an ambivalent relationship with water, sometimes seen as a threat and sometimes as a source of new opportunities, it was in the other hand the adequate land for the development of a special model of Northern garden. A garden that will not arise, however, from the clearing of woods as in the Nordic archetype, but that will grow on plains originally saturated of water or directly waterlogged. The timeframe of the two cases has 1548 as the initial year, moment in which Philip II, yet prince, made his first trip to the Low Lands and imbibed the Dutch garden model. The later and bountiful garden works of the king, always with the water as the main focus, adapted the imported model to the Spanish ground and geography. The final date is fixed in 1648, just a century after, in coincidence with the Westfalia Peace; a treaty that implied the total political reorganization of the European territory and the end of the Spanish hegemony in the continent. In Holland, only two years later, William III of Orange, Stadtholder of the United Provinces and also future king of England, Scotland and Ireland, was born. But by then the Netherlands had developed an own garden art, closely linked to water. This type garden, surprisingly not very well known, and its relationship with water, will be other of the addressing questions of this work. Finally, the investigation merges the different interventions that have water as an argument, integrating all the fields considered with their particular methodological approaches. The final result is a thesis in which garden and territory are treated from a new and enriching perspective.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los montes Mediterráneos han experimentado múltiples cambios en las últimas décadas (tanto en clima como en usos), lo que ha conducido a variaciones en la distribución de especies. El aumento previsto de las temperaturas medias junto con la mayor variabilidad intra e inter anual en cuanto a la ocurrencia de eventos extremos o disturbios naturales (como periodos prolongados de sequía, olas de frío o calor, incendios forestales o vendavales) pueden dañar significativamente al regenerado, llevándolo hasta la muerte, y jugando un papel decisivo en la composición de especies y en la dinámica del monte. La amplitud ecológica de muchas especies forestales puede verse afectada, de forma que se esperan cambios en sus nichos actuales de regeneración. Sin embargo, la migración latitudinal de las especies en busca de mejores condiciones, podría ser una explicación demasiado simplista de un proceso mucho más complejo de interacción entre la temperatura y la precipitación, que afectaría a cada especie de un modo distinto. En este sentido tanto la capacidad de adaptación al estrés ambiental de una determinada especie, así como su habilidad para competir por los recursos limitados, podría significar variaciones dentro de una comunidad. Las características fisiológicas y morfológicas propias de cada especie se encuentran fuertemente relacionadas con el lugar donde cada una puede surgir, qué especies pueden convivir y como éstas responden a las condiciones ambientales. En este sentido, el conocimiento sobre las distintas respuestas ecofisiológicas observadas ante cambios ambientales puede ser fundamentales para la predicción de variaciones en la distribución de especies, composición de la comunidad y productividad del monte ante el cambio global. En esta tesis investigamos el grado de tolerancia y sensibilidad que cada una de las tres especies de estudio, coexistentes en el interior peninsular ibérico (Pinus pinea, Quercus ilex y Juniperus oxycedrus), muestra ante los factores abióticos de estrés típicos de la región Mediterránea. Nuestro trabajo se ha basado en la definición del nicho óptimo fisiológico para el regenerado de cada especie a través de la investigación en profundidad del efecto de la sequía, la temperatura y el ambiente lumínico. Para ello, hemos desarrollado un modelo de predicción de la tasa de asimilación de carbono que nos ha permitido identificar las condiciones óptimas ambientales donde el regenerado de cada especie podría establecerse con mayor facilidad. En apoyo a este trabajo y con la idea de estudiar el efecto de la sequía a nivel de toda la planta hemos desarrollado un experimento paralelo en invernadero. Aquí se han aplicado dos regímenes hídricos para estudiar las características fisiológicas y morfológicas de cada especie, sobre todo a nivel de raíz y crecimiento del tallo, y relacionarlas con las diferentes estrategias en el uso del agua de las especies. Por último, hemos estudiado los patrones de aclimatación y desaclimatación al frio de cada especie, identificando los periodos de sensibilidad a heladas, así como cuellos de botella donde la competencia entre especies podría surgir. A pesar de que el pino piñonero ha sido la especie objeto de la gestión de estas masas durante siglos, actualmente se encuentra en la posición más desfavorable para combatir el cambio global, presentado el nicho fisiológico más estrecho de las tres especies. La encina sin embargo, ha resultado ser la especie mejor cualificada para afrontar este cambio, seguida muy de cerca por el enebro. Nuestros resultados sugieren una posible expansión en el rango de distribución de la encina, un aumento en la presencia del enebro y una disminución progresiva del pino piñonero a medio plazo en estas masas. ABSTRACT Mediterranean forests have undergone multiple changes over the last decades (in both climate and land use), which have lead to variations in the distribution of species. The expected increase in mean annual temperature together with the greater inter and intra-annual variability in extreme events and disturbances occurrence (such as prolonged drought periods, cold or heat waves, wildfires or strong winds) can significantly damage natural regeneration, up to causing death, playing a decisive role on species composition and forest dynamics. The ecological amplitude for adaptation of many species can be affected in such a way that changes in the current regeneration niches of many species are expected. However, the forecasted poleward migration of species seeking better conditions could be an oversimplification of what is a more complex phenomenon of interactions among temperature and precipitation, that would affect different species in different ways. In this regard, either the ability to adapt to environmental stresses or to compete for limited resources of a single species in a mixed forest could lead to variations within a community. The ecophysiological and morphological traits specific to each species are strongly related to the place where each species can emerge, which species can coexist, and how they respond to environmental conditions. In this regard, the understanding of the ecophysiological responses observed against changes in environmental conditions can be essential for predicting variations in species distribution, community composition, and forest productivity in the context of global change. In this thesis we investigated the degree of tolerance and sensitivity that each of the three studied species, co-occurring in central of the Iberian Peninsula (Pinus pinea, Quercus ilex and Juniperus oxycedrus), show against the typical abiotic stress factors in the Mediterranean region. Our work is based on the optimal physiological niche for regeneration of each species through in-depth research on the effect of drought, temperature and light environment. For this purpose, we developed a model to predict the carbon assimilation rate which allows us to identify the optimal environmental conditions where regeneration from each species could establish itself more easily. To obtain a better understanding about the effect of low temperature on regeneration, we studied the acclimation and deacclimation patterns to cold of each species, identifying period of frost sensitivity, as well as bottlenecks where competition between species can arise. Finally, to support our results about the effect of water availabilty, we conducted a greenhouse experiment with a view of studying the drought effect at the whole plant level. Here, two watering regimes were applied in order to study the physiological and morphological traits of each species, mainly at the level of the root system and stem growth, and so relate them to the different water use strategies of the species. Despite the fact that stone pine has been the target species for centuries, nowadays this species is in the most unfavorable position to cope with climate change. Holm oak, however, resulted the species that is best adapted to tolerate the predicted changes, followed closely by prickly juniper. Our results suggest a feasible expansion of the distribution range in holm oak, an increase in the prickly juniper presence and a progressive decreasing of stone pine presence in the medium term in these stone pine-holm oak-prickly juniper mixed forests.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La propuesta del análisis de la figura de Parque Agrario en el ámbito español surge ante la constatación de que un nuevo paradigma está aconteciendo a escala estatal. Diversos focos se encuentran trabajando en paralelo, y de forma participada, en pos de la reformulación de las políticas públicas relacionadas con la agricultura periurbana. Estos focos ven en la figura de Parque Agrario un instrumento territorial que permite mejorar la sostenibilidad y cohesión territorial a través de la defensa de la gobernanza alimentaria local, sin olvidar la necesidad de conservación de los recursos naturales y el patrimonio paisajístico, junto a la prestación de múltiples servicios de los ecosistemas de estos ámbitos a la ciudadanía. Complementariamente, se empieza a vislumbrar el papel que esta figura puede desempeñar como herramienta de desarrollo territorial de los sistemas agrarios periurbanos, clave ante los efectos de carácter local que la globalización ejerce en estos territorios. La figura de Parque Agrario es una estructura que actúa bloqueando la base territorial, favoreciendo el desarrollo de la actividad agraria. Su mayor potencial es el de convertir el factor “proximidad urbana” de una amenaza a una oportunidad de desarrollo local endógeno que permita la continuidad de la agricultura, de los agricultores y del espacio agrario. La peculiaridad del Parque Agrario es que no es una figura al uso, estructurada y reglada por una legislación, sino que se trata de una iniciativa ad hoc, específica para cada caso, orientada a cumplir determinados objetivos de dinamización agraria, protección urbanística y valorización territorial. A pesar de la existencia de diversas definiciones y aportaciones sobre diferentes aspectos de la figura, no existe un análisis complejo de la misma en todas sus dimensiones, ni una tentativa de descripción de un modelo global y unitario del caso español y de sus potenciales resultados. Tampoco se han analizado en profundidad sus “invariantes” que se muestran como los elementos estructurantes del proyecto, capaces desarrollarse de forma diversa, de alcanzar diferentes niveles de complejidad, y de materializarse en función a las posibilidades que permita el marco normativo y legal. Por tanto, se plantea como objetivo principal de la tesis la definición de un modelo conceptual de Parque Agrario español, capaz de ser articulado e institucionalizado mediante un proceso de gobernanza, y que, como condición sine qua non sea duradero en el tiempo. Para poder llegar a describir un modelo colectivo se realiza, en primer lugar, un análisis genealógico que permita analizar sistemáticamente las propuestas desarrolladas en el ámbito español y los casos para establecer la existencia de una continuidad en la idea de Parque Agrario en las propuestas desarrolladas durante los últimos 25 años—sus invariantes—, y analice todos aquellos elementos que han ido enriqueciendo la figura en cada experiencia —sus variantes. Este análisis, además, ofrece como aportaciones el árbol genealógico y los mapas de dispersión de la figura y el primer catálogo de propuestas de Parque Agrario materializadas en proyecto. El resultado de la inducción de los datos obtenidos en el análisis genealógico es el modelo conceptual de Parque Agrario, que se define como una estructura orgánica de planificación-gestión-gobierno del territorio capaz de adaptarse a las necesidades específicas de todo sistema agrario periurbano que requiera la articulación-institucionalización de esta figura en él. Una vez descrito el modelo, se contrasta su fiabilidad mediante su aplicación como metodología de caracterización y evaluación de dos estudios de casos: uno exitoso, el Parque Agrario del Baix Llobregat, y uno frustrado, la propuesta de Parque Agrario de la Vega de Granada. ------------------------------------------------------ ABSTRACT -------------------------------------------------------------------- The proposed analysis of the figure of Agrarian Park in the Spanish sphere arises from the awareness that a new paradigm is happening at the state level. Different focuses are working in parallel, under participated programs, after the reformulation of public policies related to urban agriculture. These areas understand the figure of Agrarian Park as a territorial instrument for improving sustainability and territorial cohesion through the defense of local food governance, considering the need for conservation of natural resources and landscape heritage together with the multiple ecosystem services provided by these areas to the public. Additionally, the role that this figure can play as a tool for territorial development of peri-urban agrarian systems, which are key to the local effects that globalization has on these territories, is staring to be envisioned. The figure of Agrarian Park is a structure that works by blocking the territorial base to encourage the development of agrarian activity. Its greatest potential is to convert the threat of "urban proximity" into an opportunity for an endogenous local development that allows the persistence of agriculture, farmers and the agrarian space. The uniqueness of the Agrarian Park is that it is not a standard figure, structured and regulated by legislation, but rather an ad hoc initiative, specific to each case, designed to meet certain objectives of agrarian revitalization, urban protection and territorial enhance. Despite the existence of several definitions and contributions on different aspects of the figure, there is a lack of a complex analysis of it in all its dimensions, missing any attempt to describe a global and unitary model of the Spanish case and its potential outcomes. Its "invariants” have neither been evaluated in depth, shown as the structural elements of the project able to be developed in different ways, to achieve numerous levels of complexity, and to be materialized according to the possibilities allowed by the regulatory and legal framework. Therefore, the definition of a conceptual model of Spanish Agrarian Park able to be articulated and institutionalized through a process of governance, and durable over time as a sine qua non requisite, it is proposed as the main aim of the thesis. To get to describe a collective model, a genealogical analysis that systematically analyzes the proposals and cases developed in the Spanish field is undertaken to verify the existence of a continuity of the idea of Agrarian Park on the proposals developed during the past 25 years -invariants-, and evaluate all the elements that have enriched this figure in each experience - variants. This analysis also provides as inputs a family tree, maps of dispersion of the figure and the first catalog of Agrarian Park proposals materialized into projects. The result of inducting the data obtained in the genealogical analysis is the Conceptual Model of Agrarian Park, defined as an organic planning-management-government structure of the territory able to adapt to the specific needs of all peri-urban agrarian systems that require the articulation-institutionalization of this figure in it. Having described the model, its reliability is tested by applying it as a methodology for characterization and evaluation of two case studies, one successful, the Baix Llobregat Agrarian Park, and one frustrated, the proposed Agrarian Park de la Vega of Granada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La contaminación de suelos con hidrocarburos de petróleo en México es un problema que se ha vuelto muy común en nuestros días, debido principalmente a derrames, así como a las actividades propias de la industria petrolera. Algunos suelos contaminados, principalmente en el sureste de México, contienen concentraciones de hidrocarburos hasta de 450,000 mg/kg. Por dichas razones, una de las preocupaciones de las autoridades ambientales es el desarrollo de tecnologías eficientes y económicamente factibles que permitan la eliminación de este tipo de contaminantes. El saneamiento del sitio se puede lograr a través de diversos procedimientos, como son la aplicación de métodos físicos, químicos y biológicos (o combinaciones de ellas). La elección de un método depende de la naturaleza del contaminante, su estado físico, concentración, tipo de suelo, espacio físico disponible, tiempo destinado para su tratamiento, así como de los recursos económicos disponibles. Previa a la aplicación de la tecnología es necesario la realización de un diagnóstico de la contaminación del suelo, con el fin de conocer el tipo, concentración y distribución de los contaminantes presentes, así como el volumen de suelo a tratar, las condiciones climáticas de la zona, y características físicas del lugar (vías de acceso y servicios, entre otros). En la presente tesis, el empleo de surfactantes, se ha propuesto como una técnica para incrementar la movilidad de contaminantes orgánicos hidrofóbicos (HOCs) como hidrocarburos totales del petróleo (HTPs), bifenilos policlorados (PCBs), Benceno, Tolueno, Xilenos, explosivos, clorofenoles, pesticidas, entre otros, y así facilitar su degradación. Los surfactantes debido a que reducen la tensión superficial del agua, son moléculas formadas por grupos polares hidrofílicos y largas cadenas carbonadas hidrofóbicas. Sus grupos polares forman puentes hidrógeno con las moléculas de agua, mientras que las cadenas carbonadas se asocian a los hidrocarburos debido a interacciones hidrofóbicas que estos presentan. En soluciones acuosas, los surfactantes forman estructuras esféricas organizadas llamadas micelas. La solubilización de los contaminantes se lleva a cabo solamente cuando se forma la fase micelar, la cual se obtiene cuando la concentración del surfactante es superior a la concentración micelar crítica (CMC), es decir, arriba de la concentración de la cual el monómero se comienza a auto-agregar. La eficiencia de desorción de diésel por un surfactante depende de su naturaleza, de la dosis empleada, de la hidrofobicidad del contaminante, de la interacción surfactante-suelo y del tiempo de contacto surfactante-suelo. Sin embargo, la mejor eficiencia de desorción no está siempre relacionada con la mejor eficiencia de movilidad o solubilidad, debido principalmente a que el empleo de una alta concentración de surfactante puede inhibir la movilización. De acuerdo con información proporcionada por la Procuraduría Federal de Protección al Ambiente (PROFEPA), a la fecha no se ha llevado a cabo en México ninguna restauración de sitios específicamente contaminados con diésel, la técnica de lavado de suelos. Por lo anterior existe la necesidad de emplear la técnica de lavado de suelos ex situ. Específicamente en el suelo extraído de la ex refinería 18 de marzo ubicada en el Distrito Federal México y empleando una solución de surfactantes con agua desionizada, la cual consiste ponerlos en contacto con el suelo contaminado con diésel por medio de columnas de lavado cilíndricas, para lograr la remoción del contaminante. Se emplearon como surfactantes el lauril sulfato de sodio, lauril éter sulfato de sodio y Glucopon AV-100 a diferentes concentraciones de 0.5 a 4.0 [g/L], lográndose obtener una eficiencia del 80 % con este último surfactante. El lavado de suelos contaminados con diésel empleado surfactantes, es una tecnología que requiere que se profundice en el estudio de algunas variables como son el tipo de surfactante, concentración, tiempo de lavado, fenómenos de difusión, desorción, propiedades termodinámicas, entre otros. Los cuales determinarán el éxito o fracaso de la técnica empleada. Nowadays, soil pollution with oil in Mexico is a very common issue due mainly to both oil spill and oil activities. For example, mainly in the southeast area of Mexico, polluted soil contains high concentrations of hydrocarbons, up to 450,000 mg/kg. For these reasons, enviromental authorities have the concern in developing economically feasible and efficient technology that allow the elimination of these type of contaminants. The sanitation in sites can be achieved through several procedures such as physical, chemical and biological methods (or a combination among them). The choice of a method depends on the nature and physical state of the contaminant, the concentration, type of soil, physical space available, time consumption and financial resources. Before any technological application, a diagnostic of the polluted soil is necessary in order to know the type, concentration and distribution of contaminants as well as the soil volume, climatic conditions and physical features of the place (access routes and services, among others). In this thesis, surfactants has been proposed as a technique to increase the mobility of hydrophobic-organic contaminants (HOCs), e.g. total hydrocarbons of petroleum, polychlorinated biphenyls, benzene, toluene, xylenes, explosives, chlorophenols, pesticides, among others, and, hence, to facilitate degradation. Since surfactants reduce the water surface tension, they are molecules comprised of hydrophilic polar groups and long-hydrophobic carbon chains. Surfactant’s polar groups form hydrogen bonding with water molecules while carbon chains, i.e. hydrocarbon chains, have hydrophobic interactios. In aqueous solutions, surfactants form self-organised spherical structures called micelles. The solubilisation of contaminants is carried out only when the micellar phase is formed. This is obtained when the surfactant concentration is higher than the crítical micelle concentration (CMC), i.e. above the concentration where the surfactant monomer begins to self-aggregate. The diesel efficiency desorption by surfactants depends on their nature, the dose use, the contaminant hydrophobicity, the surfactant-soil interaction and the contact time with surfactant soil. However, the best desorption is not always related with the best either mobility or solubility efficiency since high concentration of surfactant can inhibit mobilisation. According to information of the Federal Bureau of Environmental Protection (PROFEPA), up today, there is not any restauration of diesel-polluted sites using the washing-soil technique. Due to the above, there exist the necessity of employing the waching-soil technique ex situ. More specifically, a sample soil from the oil-refinery of “18 de marzo” in Mexico city was extracted and a surfactant solution with deionised water was put in contact with the diesel contaminated soil by means of cylindrical waching columns in order to remove the contaminant. The surfactants employed in this work were sodium lauryl sulfate, sodium lauryl ether sulfate and Glucopon AV-100 at different concentrations of 0.5 to 4 [g/L], obtaining a efficiency of 80 % with this last surfactant. The washing of diesel-polluted soil using surfactants is a technology which requires a deeper study of some variables such as the type of surfactant, concentration, washing time, difusión phenomena, desorption, thermodynamic properties, among others. These parameters determine the succes or failure of the employed technique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los accidentes con implicación de autocares en los que se producen vuelcos ponen de manifiesto la especial agresividad de los mismos, como lo confirman las estadísticas. Como medida para mejorar la seguridad de los Vehículos de Grandes Dimensiones para el Transporte de Pasajeros (V.G.D.T.P.) frente a vuelco fue aprobado por las Naciones Unidas el Reglamento Nº 66 de Ginebra. Este reglamento establece los requisitos mínimos que las estructuras de los vehículos de grandes dimensiones deben cumplir con respecto a vuelco. El reglamento 66 ha supuesto un paso adelante muy importante en relación con la seguridad de los autocares, puesto que especifica por primera vez requerimientos estructurales a este tipo de vehículos, y en general ha supuesto una mejora del vehículo . Por otro lado, a consecuencia de la obligatoriedad de instalación de cinturones de seguridad, existe una unión entre pasajeros y vehículo, pero como no se trata de una unión rígida, hay que contemplar el porcentaje de la masa de los ocupantes que influye en la absorción de energía de la estructura. Además la retención de los ocupantes con cinturones de seguridad influye en la energía a absorber por la estructura del vehículo en dos aspectos, por un lado aumenta la masa del vehículo y en el otro se incrementa la altura el centro de gravedad. Esta situación a conducido a elaborar por parte de las Naciones Unidas la revisión 01 del Reglamento 66, en el que se considera que el 50 % de la masa total de los pasajeros posee una unión rígida con la estructura del vehículo, y por lo tanto debe ser tenida en cuenta si el vehículo posee sistemas de retención. En la situación actual, con limitaciones de peso del vehículo y peso por eje, los elementos de confort, seguridad y espacio para maleteros contribuyen a aumentar el peso del vehículo. Esto unido a la dificultad de introducción de cambios radicales en la concepción actual de fabricación de este tipo de vehículos por suponer unas pérdidas importantes para los fabricantes existentes, tanto en su conocimiento del producto como en su metodología de proceso, conlleva la necesidad cada vez más agobiante de analizar y evaluar otras alternativas estructurales que sin suponer grandes revoluciones a los productos actualmente en fabricación los complementen permitiendo adaptarse a los nuevos requerimientos en seguridad. Recientes desarrollos en la relación costo-beneficio de los procesos para la producción de materiales celulares metálicos de baja densidad, tales como las espumas metálicas, los posiciona como una alternativa de especial interés para la aplicación como elementos de absorción de energía para reforzar estructuras. El relleno con espumas metálicas puede ser más eficiente en términos de optimización de peso comparado con el aumento de espesor de los perfiles estructurales, dado que la absorción de energía se produce en una fracción relativamente pequeña de los perfiles, en las denominadas rótulas plásticas. La aplicación de espumas de relleno metálicas en estructuras de vehículos se está empezando a emplear en determinadas zonas de los vehículos de turismo, siendo totalmente novedosa cualquier intento de aplicación en estructuras de autobuses y autocares. Conforme a lo expuesto, y con el objeto de resolver estos problemas, se ha elaborado el presente trabajo de tesis doctoral, cuyos objetivos son: -Desarrollar un modelo matemático, que permita simular el ensayo de vuelco, considerando la influencia de los ocupantes retenidos con cinturones de seguridad para evaluar su influencia en la absorción de energía de la estructura. -Validar el modelo matemático de vuelco de la estructura mediante ensayos de secciones representativas de la estructura del vehículo y mediante el ensayo de un vehículo completo. -Realizar un estudio de las propiedades de las espumas metálicas que permitan incorporarlas como elemento de absorción de energía en el relleno de componentes de la superestructura de autobuses y autocares. -Desarrollar un modelo matemático para evaluar el aporte del relleno de espuma metálica en la absorción de energía ante solicitaciones por flexión estática y dinámica en componentes de la superestructura de autobuses o autocares. -Realizar un programa de ensayos a flexión estáticos y dinámicos para validar el modelo matemático del aporte del relleno de espuma metálica sobre componentes de la superestructura de autobuses y autocares. . -Incorporar al modelo matemático de vuelco de la estructura, los resultados obtenidos sobre componentes con relleno de espuma metálica, para evaluar el aporte en la absorción de energía. -Validar el modelo de vuelco de la estructura del autobús o autocar con relleno de espuma metálica, mediante ensayos de secciones de carrocería. ABSTRACT Accidents involving buses in which rollovers occur reveal the special aggressiveness thereof, as the statistics prove. As a measure to improve the safety of large vehicles for the transport of passengers to rollover, Regulation 66 of Geneva was approved by the United Nations. This regulation establishes the minimum requirements that structures of large vehicles must comply with respect to rollovers. The regulation 66 has been a major step forward in relation to the safety of coaches, since it specifies structural requirements to such vehicles and has been an improvement for the vehicle. In turn, as a result of compulsory installation of safety belts, there is contact between passengers and vehicle, but as it is not a rigid connection we must contemplate the percentage of the mass of the occupants that impacts on the energy absorption of the structure. Thus, the passengers’ restraining modifies the energy to absorb by the vehicle in two different aspects: On the one hand, it increases the vehicle weight and on the other the height of the center of gravity. This circumstance has taken the United Nations to elaborate Revision 01 of Regulation 66, in which it is considered that the 50 percent of passengers’ mass has a rigid joint together with the vehicle structure and, therefore, the passengers’ mass mentioned above should be highly considered if the vehicle has seat belts. In the present situation, in which limitations in vehicle weight and weight in axles are stricter, elements of comfort, safety and space for baggage are contributing to increase the weight of the vehicle. This coupled with the difficulty of introducing radical changes in the current conception of manufacturing such vehicles pose significant losses for existing manufacturers, both in product knowledge and process methodology, entails the overwhelming need to analyze and evaluate other structural alternatives without assuming relevant modifications on the products manufactured currently allowing them to adapt to the new safety requirements. Recent developments in cost-benefit processes for the production of metallic foams of low density, such as metal foams, place them as an alternative of special interest to be used as energy absorbers to strengthen structures. The filling with metal foams can be more efficient in terms of weight optimization compared with increasing thickness of the structural beams, since the energy absorption occurs in a relatively small fraction of the beams, called plastic hinges. The application of metal filling foams in vehicle structures is beginning to be used in certain areas of passenger cars, being an innovative opportunity in structures for application in buses and coaches. According to the mentioned before, and in order to come forward with a solution, this doctoral thesis has been prepared and its objectives are: - Develop a mathematical model to simulate the rollover test, considering the influence of the occupants held with seat belts to assess their influence on energy absorption structure. - Validate the mathematical model of the structure rollover by testing representative sections of the vehicle structure and by testing a complete vehicle. - Conduct a study of the properties of metal foams as possible incorporation of energy absorbing element in the filler component of the superstructure of buses and coaches. - Elaborate a mathematical model to assess the contribution of the metal foam filling in absorbing energy for static and dynamic bending loads on the components of buses or coaches superstructure. - Conduct a static and dynamic bending test program to validate the mathematical model of contribution of metal foam filling on components of the superstructure of buses and coaches bending. - To incorporate into the mathematical model of structure rollover, the results obtained on components filled with metal foam, to evaluate the contribution to the energy absorption. - Validate the rollover model structure of the bus or coach filled with metal foam through tests of bay sections. The objectives in this thesis have been achieved successfully. The contribution calculation model with metal foam filling in the vehicle structure has revealed that the filling with metal foam is more efficient than increasing thickness of the beams, as demonstrated in the experimental validation of bay sections.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La energía transportada por el oleaje a través de los océanos (energía undimotriz) se enmarca dentro de las denominadas energías oceánicas. Su aprovechamiento para generar energía eléctrica (o ser aprovechada de alguna otra forma) es una idea reflejada ya hace más de dos siglos en una patente (1799). Desde entonces, y con especial intensidad desde los años 70, ha venido despertando el interés de instituciones ligadas al I+D+i y empresas del sector energético y tecnológico, debido principalmente a la magnitud del recurso disponible. Actualmente se puede considerar al sector en un estado precomercial, con un amplio rango de dispositivos y tecnologías en diferente grado de desarrollo en los que ninguno destaca sobre los otros (ni ha demostrado su viabilidad económica), y sin que se aprecie una tendencia a converger un único dispositivo (o un número reducido de ellos). El recurso energético que se está tratando de aprovechar, pese a compartir la característica de no-controlabilidad con otras fuentes de energía renovable como la eólica o la solar, presenta una variabilidad adicional. De esta manera, diferentes localizaciones, pese a poder presentar recursos de contenido energético similar, presentan oleajes de características muy diferentes en términos de alturas y periodos de oleaje, y en la dispersión estadística de estos valores. Esta variabilidad en el oleaje hace que cobre especial relevancia la adecuación de los dispositivos de aprovechamiento de energía undimotriz (WEC: Wave Energy Converter) a su localización, de cara a mejorar su viabilidad económica. Parece razonable suponer que, en un futuro, el proceso de diseño de un parque de generación undimotriz implique un rediseño (en base a una tecnología conocida) para cada proyecto de implantación en una nueva localización. El objetivo de esta tesis es plantear un procedimiento de dimensionado de una tecnología de aprovechamiento de la energía undimotriz concreta: los absorbedores puntuales. Dicha metodología de diseño se plantea como un problema de optimización matemático, el cual se resuelve utilizando un algoritmo de optimización bioinspirado: evolución diferencial. Este planteamiento permite automatizar la fase previa de dimensionado implementando la metodología en un código de programación. El proceso de diseño de un WEC es un problema de ingería complejo, por lo que no considera factible el planteamiento de un diseño completo mediante un único procedimiento de optimización matemático. En vez de eso, se platea el proceso de diseño en diferentes etapas, de manera que la metodología desarrollada en esta tesis se utilice para obtener las dimensiones básicas de una solución de referencia de WEC, la cual será utilizada como punto de partida para continuar con las etapas posteriores del proceso de diseño. La metodología de dimensionado previo presentada en esta tesis parte de unas condiciones de contorno de diseño definidas previamente, tales como: localización, características del sistema de generación de energía eléctrica (PTO: Power Take-Off), estrategia de extracción de energía eléctrica y concepto concreto de WEC). Utilizando un algoritmo de evolución diferencial multi-objetivo se obtiene un conjunto de soluciones factibles (de acuerdo con una ciertas restricciones técnicas y dimensionales) y óptimas (de acuerdo con una serie de funciones objetivo de pseudo-coste y pseudo-beneficio). Dicho conjunto de soluciones o dimensiones de WEC es utilizado como caso de referencia en las posteriores etapas de diseño. En el documento de la tesis se presentan dos versiones de dicha metodología con dos modelos diferentes de evaluación de las soluciones candidatas. Por un lado, se presenta un modelo en el dominio de la frecuencia que presenta importantes simplificaciones en cuanto al tratamiento del recurso del oleaje. Este procedimiento presenta una menor carga computacional pero una mayor incertidumbre en los resultados, la cual puede traducirse en trabajo adicional en las etapas posteriores del proceso de diseño. Sin embargo, el uso de esta metodología resulta conveniente para realizar análisis paramétricos previos de las condiciones de contorno, tales como la localización seleccionada. Por otro lado, la segunda metodología propuesta utiliza modelos en el domino estocástico, lo que aumenta la carga computacional, pero permite obtener resultados con menos incertidumbre e información estadística muy útil para el proceso de diseño. Por este motivo, esta metodología es más adecuada para su uso en un proceso de dimensionado completo de un WEC. La metodología desarrollada durante la tesis ha sido utilizada en un proyecto industrial de evaluación energética preliminar de una planta de energía undimotriz. En dicho proceso de evaluación, el método de dimensionado previo fue utilizado en una primera etapa, de cara a obtener un conjunto de soluciones factibles de acuerdo con una serie de restricciones técnicas básicas. La selección y refinamiento de la geometría de la solución geométrica de WEC propuesta fue realizada a posteriori (por otros participantes del proyecto) utilizando un modelo detallado en el dominio del tiempo y un modelo de evaluación económica del dispositivo. El uso de esta metodología puede ayudar a reducir las iteraciones manuales y a mejorar los resultados obtenidos en estas últimas etapas del proyecto. ABSTRACT The energy transported by ocean waves (wave energy) is framed within the so-called oceanic energies. Its use to generate electric energy (or desalinate ocean water, etc.) is an idea expressed first time in a patent two centuries ago (1799). Ever since, but specially since the 1970’s, this energy has become interesting for R&D institutions and companies related with the technological and energetic sectors mainly because of the magnitude of available energy. Nowadays the development of this technology can be considered to be in a pre-commercial stage, with a wide range of devices and technologies developed to different degrees but with none standing out nor economically viable. Nor do these technologies seem ready to converge to a single device (or a reduce number of devices). The energy resource to be exploited shares its non-controllability with other renewable energy sources such as wind and solar. However, wave energy presents an additional short-term variability due to its oscillatory nature. Thus, different locations may show waves with similar energy content but different characteristics such as wave height or wave period. This variability in ocean waves makes it very important that the devices for harnessing wave energy (WEC: Wave Energy Converter) fit closely to the characteristics of their location in order to improve their economic viability. It seems reasonable to assume that, in the future, the process of designing a wave power plant will involve a re-design (based on a well-known technology) for each implementation project in any new location. The objective of this PhD thesis is to propose a dimensioning method for a specific wave-energy-harnessing technology: point absorbers. This design methodology is presented as a mathematical optimization problem solved by using an optimization bio-inspired algorithm: differential evolution. This approach allows automating the preliminary dimensioning stage by implementing the methodology in programmed code. The design process of a WEC is a complex engineering problem, so the complete design is not feasible using a single mathematical optimization procedure. Instead, the design process is proposed in different stages, so the methodology developed in this thesis is used for the basic dimensions of a reference solution of the WEC, which would be used as a starting point for the later stages of the design process. The preliminary dimensioning methodology presented in this thesis starts from some previously defined boundary conditions such as: location, power take-off (PTO) characteristic, strategy of energy extraction and specific WEC technology. Using a differential multi-objective evolutionary algorithm produces a set of feasible solutions (according to certain technical and dimensional constraints) and optimal solutions (according to a set of pseudo-cost and pseudo-benefit objective functions). This set of solutions or WEC dimensions are used as a reference case in subsequent stages of design. In the document of this thesis, two versions of this methodology with two different models of evaluation of candidate solutions are presented. On the one hand, a model in the frequency domain that has significant simplifications in the treatment of the wave resource is presented. This method implies a lower computational load but increased uncertainty in the results, which may lead to additional work in the later stages of the design process. However, use of this methodology is useful in order to perform previous parametric analysis of boundary conditions such as the selected location. On the other hand, the second method uses stochastic models, increasing the computational load, but providing results with smaller uncertainty and very useful statistical information for the design process. Therefore, this method is more suitable to be used in a detail design process for full dimensioning of the WEC. The methodology developed throughout the thesis has been used in an industrial project for preliminary energetic assessment of a wave energy power plant. In this assessment process, the method of previous dimensioning was used in the first stage, in order to obtain a set of feasible solutions according to a set of basic technical constraints. The geometry of the WEC was refined and selected subsequently (by other project participants) using a detailed model in the time domain and a model of economic evaluation of the device. Using this methodology can help to reduce the number of design iterations and to improve the results obtained in the last stages of the project.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis se centra en la identificación y análisis de los factores que pueden favorecer o actuar como barreras del éxito de la implementación de la innovación y las relaciones entre sí, desde el enfoque de la interface marketing-ventas. El trabajo empírico se enmarca en el vacío de investigación existente en el campo del proceso de lanzamiento de nuevos productos en los mercados donde operan subsidiarias de empresas multinacionales de consumo masivo (FMCG). Las empresas FMCG son altamente dependientes de la innovación como proceso clave determinante del crecimiento competitivo de mediano y largo plazo. En un contexto de acortamiento del ciclo de vida de los productos, como resultado del desarrollo tecnológico y científico que impactan en el comportamiento de los consumidores, las empresas invierten un mayor nivel de recursos en el desarrollo de nuevos productos, reingeniería y programas de innovación (Mundra, Gulati y Gupta, 2013). Sin embargo, a pesar del aumento en la inversión, las tasas de éxito de la innovación reportadas son inferiores al 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Aumentar las tasas de éxito de los proyectos de innovación es reconocida en la literatura como un elemento clave para la supervivencia y competitividad de las empresas, para ser superiores a su competencia y desarrollar nuevos modelos de negocios. A pesar de la existencia de estudios que intentan comprender el proceso de lanzamiento de nuevos productos, no se ha identificado un claro prototipo de gestión de la innovación (Gupta et al, 2007). Profundizando en los factores de éxito, los autores Keupp, Palmié y Gassman (2012) reconocen que la innovación exitosa no depende solamente de la estrategia de selección de los proyectos de innovación, sino también la forma en que los mismos son implementados (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). Al analizar la implementación de los proyectos de lanzamiento de nuevos productos al mercado, en empresas FMCG, dicho proceso es responsabilidad principalmente de las funciones de marketing y ventas a través de la comunicación con los consumidores y los clientes respectivamente (Ernst, Hoyer y Rubsaamen, 2010). Es decir que el éxito en la implementación de la innovación requiere la gestión efectiva de la relación inter-funcional entre marketing y ventas (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). A pesar de la importancia de la integración entre marketing y ventas en la conceptualización e implementación de la innovación, este tema no ha sido estudiado en profundidad (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). En las empresas multinacionales, está demostrado que el desempeño de las subsidiarias determinan el éxito competitivo de la empresa a nivel global. El desafío de dichas subsidiarias es conjugar el desarrollo global de innovación y comunicación con las características locales de comportamiento del consumidor y el mercado. Por lo tanto, esta investigación empírica responde a la pregunta académica y de gestión acerca de cómo mejorar las tasas de éxito de lanzamiento de nuevos productos al mercado en subsidiarias de empresas de consumo masivo, desde la perspectiva de la relación entre marketing y ventas. En particular analiza cómo afectan la formalización de los procesos y los mecanismos de comunicación a la confianza interpersonal y a la efectividad de la interface marketing-ventas y dichos factores a su vez sobre la planificación integrada de la implementación de la innovación. La determinación de los factores o ítems que conforman cada uno de los constructos del proceso de ejecución de la innovación, se llevó a cabo a partir de una revisión exhaustiva del estado del arte de la literatura sobre las interfaces funcionales y el proceso de innovación. Posteriormente, los ítems seleccionados (más de 50 en total) fueron validados por referentes de marketing y ventas de Argentina y Uruguay a través de entrevistas en profundidad. A partir de los factores identificados se construyeron dos modelos teóricos: • (1) relativo a la influencia de las dimensiones de confianza interpersonal sobre la efectividad de las uniones inter-funcionales y como los mecanismos organizacionales, tales como la frecuencia y la calidad de la comunicación entre las áreas, afectan la confianza y la relación entre ellas; • (2) relativo a la dimensión planificación integrada de la implementación de la innovación, ya que durante el lanzamiento de nuevos productos al mercado, marketing y ventas utilizan procesos formales que facilitan la comunicación frecuente y efectiva, desarrollando confianza inter-personal que no solamente afecta la efectividad de su relación sino también el desarrollo de planes integrados entre ambas áreas. El estudio fue llevado a cabo en una empresa multinacional de consumo masivo que integra la lista Global 500 (Fortune, 2015), presente en todo el mundo con más de 25 marcas participantes en más de 15 categorías, implementando 150 proyectos de innovación en el último año. El grupo de subsidiarias en estudio fue reconocido a nivel mundial por su desempeño en crecimiento competitivo y su alta contribución al crecimiento total. El modelo analizado en esta tesis fue expandido al resto de América Latina, tratándose entonces de un caso ejemplar que representa una práctica de excelencia en la implementación de la innovación en subsidiarias de una empresa multinacional. La recolección de los datos fue llevado a cabo a través de un cuestionario estructurado y confidencial, enviado a la base de datos de todo el universo de directores y gerentes de marketing y ventas. El nivel de respuesta fue muy elevado (70%), logrando 152 casos válidos. El análisis de datos comprendió el análisis descriptivo de los mismos, estimación de fiabilidad y análisis factorial exploratorio a través del software SPSS v.20. El análisis factorial confirmatorio y el análisis de senderos para examinar las relaciones entre los factores se estudiaron mediante el software R (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finalmente se llevaron a cabo entrevistas en profundidad a gerentes de marketing y ventas de cada uno de los seis países con el fin de profundizar en los constructos y sus relaciones. Los resultados de los modelos demuestran que la frecuencia de comunicación impacta positivamente en la calidad de la misma, que a su vez afecta directamente la relación entre marketing y ventas. Adicionalmente, la calidad de la comunicación impacta sobre la confianza cognitiva, que a su vez se relaciona no solamente con la confianza afectiva sino también con la relación entre ambas áreas. Esto significa que para mejorar la implementación de la innovación, los gerentes deberían orientarse a reforzar la relación entre marketing y ventas facilitando la construcción de confianza interpersonal primero cognitiva y luego afectiva, incrementando la frecuencia de la comunicación que alimenta la calidad de la comunicación entre ambas áreas. A través del segundo modelo se demuestra que durante el lanzamiento de nuevos productos al mercado, marketing y ventas necesitan emplear procesos formales que faciliten la comunicación frecuente y efectiva. De esta forma se contrarresta el efecto negativo de la formalización sobre la planificación integrada entre ambas áreas. Adicionalmente, los gerentes de ambos departamentos deberían promover la construcción de confianza interpersonal, no solamente para mejorar la efectividad de la relación, sino también para desarrollar planes integrados de implementación de nuevos productos. Finalmente, se valida que la frecuencia de la comunicación, la confianza afectiva y la relación marketing-ventas, se relacionan positivamente con la planificación integrada en la implementación de la innovación. El estudio contribuye a la comprensión de los factores que las empresas pueden emplear para mejorar la relación inter-funcional entre marketing y ventas y la implementación de la innovación en empresas de consumo masivo. El aporte de esta investigación puede ser valorado de dos maneras, los aportes a la gestión y a la academia. Desde el punto de vista empresarial, provee a los líderes al frente de empresas de consumo masivo, del conocimiento sobre los factores que afectan la implementación de la innovación y en definitiva el éxito del negocio a mediano y largo plazo. Desde el punto de vista académico aporta al conocimiento del proceso de implementación de la innovación y en la efectividad de la interface marketing y ventas en un caso de buenas prácticas en el mercado de consumo masivo. A su vez incorpora por primera vez un estudio empírico en geografías emergentes capaces de recuperar el camino de crecimiento posterior a una profunda crisis económica a través de la exitosa implementación de la innovación en sus mercados. ABSTRACT This thesis is focused on the identification, analysis and relationship study of factors which may benefit or hinder the successful deployment of innovation, from a marketing-sales interface perspective. Considering the non-existent investigation dedicated to the study of new products launches into markets in which Fast Moving Consumer Goods (FMCG) companies’ subsidiaries operate, it is that this investigation has been carried out. FMCG companies rely on innovation as their key process for a competitive growth on a medium and long term basis. Nowadays, the life-cycle of products is getting shorter as a result of new technological and scientific development, having impact on consumer behavior, and therefore companies are forced to dedicating more resources to the development of new products, reengineering and innovation programs (Mundra, Gulati and Gupta, 2013). However, in spite of the investment increase, the innovation success rates have been reported to be lower than 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Increasing success rates on innovation processes has been considered as a key element on the survival and competitiveness of companies, outperforming competitors and developing new business models. Despite new studies which try to comprehend the process of new products launch, a prototype of innovation management has not yet been identified (Gupta et al, 2007). Emphasizing on success factors, authors Keupp, Palmié and Gassman (2012) recognize that successful innovation does not solely depend on innovation processes’ selection strategy, but it is also based on the way in which these are implemented (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). While analyzing the implementation of projects for new products releases on massive consumption companies, the two departments in charge of taking this forward are marketing and sales, by focusing on communication strategies with consumers and clients respectively (Ernst, Hoyer y Rubsaamen, 2010). This means that having success on innovation implementation requires an effective management of inter-functional relationship among marketing and sales (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). In spite of the importance on the integration between marketing and sales on the conceptualization and implementation of innovation, this subject has not been studied in depth (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). In multinational companies, previous research has confirmed that the performance of their subsidiaries determine the competitive success of the company on a global scale. The challenge of said subsidiaries is to conjugate the global innovation development and communication with the local consumer and market behavior. Therefore, this empirical study aims to respond to the academic and management question of how to improve the success rates of new product launches into MNE subsidiary’ markets, from a marketing-sales relationship perspective. Particularly, this investigation analyses how the formalization of products and communication mechanisms affect interpersonal trust and marketing-sales interface effectiveness and also on how these factors affect the overall planning of the implementation of innovation. The determination of which factors build the hypothesis of the innovation execution process was taken forward through an extensive research on the extant literature on functional interfaces and innovation processes. More than 50 items were selected which were in turn validated by marketing and sales referents on Uruguay and Argentina through in depth interviews. Based on the identified factors, two theoretical models were proposed: (1) Relative to the influence that interpersonal trust dimensions have on inter functional linkages effectiveness and how organizational mechanisms such as frequency and quality of communication between departments affect trust and their relationship. (2) Relative to the integrated planning and innovation implementation dimensions. Marketing and sales department use formal process thus allowing inter-personal trust, which affects positively their relationship and also enables the development of integrated planning between them. The study was performed within a massive consumption company which is part of the “Global 500” (Fortune, 2015), with subsidiaries all over the world and more than 25 participant brands in 15 categories, having implemented over 150 innovation projects in the year under study. The analyzed subsidiary group has been awarded worldwide for their performance in competitive growth and their high contribution to the total growth. The model being analyzed in this thesis was implemented throughout Latin America, representing a remarkable case of innovation implementation excellence for subsidiaries of multinational companies. Data recollection was carried out through a structured and confidential questionnaire, sent to the universe of marketing-sales directors and managers’ database available with a high level of responsiveness of 70%, resulting in 152 valid cases. Data exploration involved a descriptive analysis, followed by a reliability estimation and an exploratory factorial analysis carried out through SPSS v.20. Confirmatory factorial analysis and path analysis (to examine relations between the different study factors) were studied using “R” software (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finally, in depth interviews were carried out to several marketing and sales managers in each of the six countries so as to further confirm the hypothesis and their relations. The models results prove that communication frequency has a positive impact on the quality of the same, which in turn has direct effects on the marketing-sales relations. Additionally, communication quality has an impact on the cognitive trust, which also relates not only to affective trust, but also to the relation between both areas. This means that in order to improve the implementation of innovation, managers should strive to enforce marketing-sales relations, facilitating the interpersonal trust construction (firstly cognitive, followed by affective trust), increasing the communication frequency, and therefore nurturing the communication quality among both areas. Through the second model, the results confirm the importance of creating effective relationships between sales and marketing to facilitate planning integrated new product implementations. While formalized new product development processes provide opportunities for sales and marketing to communicate, this does not directly influence the planning of integrated new product implementations. By using these formal opportunities to communicate to create information quality, it is possible to improve sales and marketing’s ability to integrate information during the planning process. Further, communication quality creates inter-personal trust in the other party’s competences (cognitive-based trust), leading to affect-based trust. Affect-based inter-personal trust, not only to improve the overall effectiveness of the sales and marketing relationship, but also helps in planning integrated new product implementations. This study contributes to the understanding of factors which enterprises can use to improve the inter-functional relations between marketing and sales, and the implementation of innovation in FMCG companies. The contribution of this investigation can be measured in two ways: enrichment of management and contribution to the academic area. From a business perspective, it provides massive consumption businesses leaders with knowledge on which factors affect innovation implementation, which results on mid and long-term success for the company. From an academic point of view, it provides knowledge on a prototype of successful innovation implementation management based on the marketing-sales interface effectiveness through a case study in the FMCG consumption market. Last but not least, it incorporates for the first time an empiric study on emerging geographies capable of recovery post a deep economic crisis through successful innovation implementation on their markets.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El primer asunto con el que se encuentra un entrenador al coger un equipo es el potencial humano, con este debe tratar, dialogar, respetar, mediante el diálogo debe llevarlo por el camino elegido y para ello es bueno conocer y entrenar las diferentes variables psicológicas que afectan a esto. Las ambientales, como la actuación propia del entrenador, el estilo de vida de sus jugadores, las interacciones entre ellos, etc. Y también las variables relacionadas con el rendimiento como son el control del estrés, la motivación, cohesión de equipo, la autoconfianza y la preparación mental. Para ello se da una idea de un método que se puede utilizar mediante un cuestionario del autor Gimeno y Buceta (2010), en el cual el entrenador que lo utilice puede analizar diferentes variables psicológicas, en este trabajo se da la idea de analizar las variables antes mencionadas (control de estrés, motivación, cohesión de equipo, etc.), contenido fundamental del entrenamiento psicológico en fútbol para muchos autores. La discusión ahonda en las visiones de diferentes autores acerca de cómo optimizar a través del entrenamiento las variables psicológicas, y en función de las propuestas se concluye dando una idea de la preparación psicológica trasladándola al terreno de la planificación a largo plazo y dando importancia a tres periodos esenciales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El estándar LTE se ha posicionado como una de las claves para que los operadores de telecomunicación puedan abordar de manera eficiente en costes el crecimiento de la demanda de tráfico móvil que se prevé para los próximos años, al ser una tecnología más escalable en el núcleo de la red y más flexible en la interfaz radio que sus predecesoras. En este sentido, es necesario también que los reguladores garanticen un acceso al espectro radioeléctrico adecuado, equitativo y no discriminatorio, que permita un entorno estable para el despliegue de redes de comunicaciones móviles avanzadas. Además de la flexibilización del marco regulador del espectro radioeléctrico en Europa, que ha permitido el despliegue de nuevas tecnologías en las bandas de frecuencia históricas de GSM, se ha puesto a disposición espectro adicional para sistemas IMT en nuevas bandas de frecuencia, lo que ha planteando a su vez nuevos retos para la tecnología y la regulación. La fragmentación del espectro disponible para comunicaciones móviles ha impulsado el desarrollo de técnicas de agregación de portadoras en las nuevas versiones del estándar LTE, que permiten explotar mejor los recursos radio en su conjunto. No obstante, el espectro inferior a 1 GHz sigue siendo escaso, ya que el tráfico móvil aumenta y la banda de 900 MHz aún se utiliza para servicios GSM, lo que no ha conseguido sino agravar la disputa entre los servicios de radiodifusión terrestre y de comunicaciones móviles por la parte superior de la banda UHF. En concreto, la banda de 700 MHz se perfila como una de las próximas para aumentar el espectro disponible para los servicios en movilidad, si bien su liberación por parte de las actuales redes de Televisión Digital Terrestre presenta no pocas dificultades en los Estados miembros en los que ésta es la principal plataforma audiovisual de acceso gratuito, abriendo un debate sobre el modelo audiovisual a largo plazo en Europa. Por otro lado, las políticas públicas de promoción del acceso a la banda ancha rápida y ultrarrápida de la presente década han establecido objetivos ambiciosos para el año 2020, tanto en el ámbito europeo como en los diferentes Estados miembros. La universalización del acceso a redes de banda ancha de al menos 30 Mbps constituye uno de los principales retos. Las expectativas generadas por la tecnología LTE y la puesta a disposición de nuevas bandas de frecuencia hace posible que los servicios de acceso fijo inalámbrico adquieran especial relevancia ante los objetivos de política pública establecidos que, como ha sido reconocido en diversas ocasiones, no podrán lograrse sino con un compendio de diferente tecnologías. Para esta Tesis Doctoral se han desarrollado una serie modelos tecnoeconómicos con el objetivo de realizar un análisis prospectivo que evalúa tres casos de especial relevancia en el despliegue de redes LTE: en primer lugar, la valoración económica de la banda de 700 MHz; en segundo lugar, la evaluación de modelos de negocio y reducción de costes considerando tecnologías femtocelulares; y finalmente, la viabilidad de las redes LTE de acceso fijo inalámbrico para el cierre de la brecha digital en el acceso a la banda ancha de 30 Mbps. En relación con la aplicación del análisis tecnoeconómico para la valoración del espectro de 700 MHz, los resultados obtenidos ponen de manifiesto dos cuestiones fundamentales. En primer lugar, la necesidad de asignar a los operadores más espectro para satisfacer las previsiones de demanda de tráfico móvil a medio plazo. En segundo, existe una diferencia notable en los costes de despliegue de una red LTE cuando se dispone de espectro en frecuencias inferiores a 1 GHz y cuando no, pero esta diferencia de costes disminuye a medida que se añade nuevo espectro sub-1GHz. De esta manera, la atribución de la banda de 700 MHz a servicios de comunicaciones móviles supone una reducción relevante en los costes de despliegue si el operador no dispone de espectro en la banda de 800 MHz, pero no así si ya dispone de espectro en bandas bajas para el despliegue. En este sentido, puede concluirse que el precio que los operadores estarán dispuestos a pagar por el espectro de la banda de 700 MHz dependerá de si ya tienen disponible espectro en la banda de 800 MHz. Sin embargo, dado que la competencia por ese espectro será menor, los ingresos esperables en las licitaciones de esta nueva banda serán en general menores, a pesar de que para algunos operadores este espectro sería tan valioso como el de 800 MHz. En segundo lugar, en relación con el despliegue de femtoceldas pueden extraerse algunas conclusiones en términos de ahorro de costes de despliegue y también de cara a la viabilidad de los modelos de negocio que posibilitan. El ahorro que supone la introducción de femtoceldas en el despliegue de una red LTE frente al caso de un despliegue exclusivamente macrocelular se ha demostrado que es mayor cuanto menor es el ancho de banda disponible para la red macrocelular. En esta línea, para un operador convergente el despliegue de femtoceldas tiene sentido económico si el ancho de banda disponible es escaso (en torno a 2x10 MHz), que, en el caso de España, puede reflejar el caso de los operadores del segmento fijo que son nuevos entrantes en el móvil. Por otro lado, los modelos de acceso abierto son interesantes para operadores exclusivamente móviles, porque consiguen flexibilizar los costes sustituyendo estaciones base macrocelulares por el despliegue de femtoceldas, pero necesitan desplegarse en zonas con una densidad de población relativamente elevada para que éstas descarguen tráfico de varios usuarios de la red macrocelular simultáneamente. No obstante, las femtoceldas son beneficiosas en todo caso si es el usuario quien asume los costes de la femtocelda y el backhaul, lo que sólo parece probable si se integran en el modelo de negocio de comercialización de nuevos servicios. Por tanto, el despliegue de femtoceldas en buena parte de la casuística estudiada sólo tiene sentido si consiguen aumentar los ingresos por usuario comercializando servicios de valor añadido que necesiten calidad de servicio garantizada y exploten a la vez de esa forma su principal ventaja competitiva respecto a la tecnología WiFi. Finalmente, en relación con el papel de la tecnología LTE para la provisión de servicios de acceso fijo inalámbrico para la banda ancha de 30 Mbps, se ha desarrollado un modelo TD-LTE y mediante la metodología de análisis tecnoeconómico se ha realizado un estudio prospectivo para el caso de España. Los resultados obtenidos preciden una huella de cobertura de FTTH del 74% para 2020, y demuestran que una red TD-LTE en la banda de 3,5 GHz resulta viable para aumentar la cobertura de servicios de 30 Mbps en 14 puntos porcentuales. Junto con la consideración de la cobertura de otras redes, la cobertura de 30 Mbps de acuerdo a la viabilidad de los despliegues alcanzaría el 95% en España en el año 2020. Como resumen, los resultados obtenidos muestran en todos los casos la capacidad de la tecnología LTE para afrontar nuevos desafíos en relación con el aumento del tráfico móvil, especialmente crítico en las zonas más urbanas, y el cierre de la brecha digital en el acceso a la banda ancha rápida en las zonas más rurales. ABSTRACT The LTE standard has been pointed out as one of the keys for telecom operators to address the demand growth in mobile traffic foreseen for the next years in a cost-efficient way, since its core network is more scalable and its radio interface more flexible than those of its predecessor technologies. On the other hand, regulators need to guarantee an adequate, equitable and non-discriminatory access to radio spectrum, which enable a favorable environment for the deployment of advanced mobile communication networks. Despite the reform of the spectrum regulatory framework in Europe, which allowed for the deployment of new technologies in the historic GSM bands, additional spectrum has been allocated to IMT systems in new frequency bands, what in turn has set out new challenges for technology and regulation. The current fragmentation of available spectrum in very different frequency bands has boosted the development of carrier aggregation techniques in most recent releases of the LTE standard, which permit a better exploitation of radio resources as a whole. Nonetheless, spectrum below 1 GHz is still scarce for mobile networks, since mobile traffic increases at a more rapid pace than spectral efficiency and spectrum resources. The 900 MHz frequency band is still being used for GSM services, what has worsen the dispute between mobile communication services and terrestrial broadcasting services for the upper part of the UHF band. Concretely, the 700 MHz frequency band has been pointed out as one of the next bands to be allocated to mobile in order to increase available spectrum. However, its release by current Digital Terrestrial Television networks is challenging in Member States where it constitutes the main free access audiovisual platform, opening up a new debate around the audiovisual model in the long term in Europe. On the other hand, public policies of the present decade to promote fast and ultrafast broadband access has established very ambitious objectives for the year 2020, both at European and national levels. Universalization of 30 Mbps broadband access networks constitutes one of the main challenges. Expectations raised by LTE technology and the allocation of new frequency bands has lead fixed wireless access (FWA) services to acquire special relevance in light of public policy objectives, which will not be met but with a compendium of different technologies, as different involved stakeholders have acknowledged. This PhD Dissertation develops techno-economic models to carry out a prospective analysis for three cases of special relevance in LTE networks’ deployment: the spectrum pricing of the 700 MHz frequency band, an assessment of new business models and cost reduction considering femtocell technologies, and the feasibility of LTE fixed wireless access networks to close the 30 Mbps broadband access gap in rural areas. In the first place and regarding the application of techno-economic analysis for 700 MHz spectrum pricing, obtained results reveal two core issues. First of all, the need to allocate more spectrum for operators in order to fulfill mobile traffic demand in the mid-term. Secondly, there is a substantial difference in deployment costs for a LTE network when there is sub-1GHz spectrum available and when there is not, but this difference decreases as additional sub-1GHz spectrum is added. Thus, the allocation of 700 MHz band to mobile communication services would cause a relevant reduction in deployment costs if the operator does not count on spectrum in the 800 MHz, but not if it already has been assigned spectrum in low frequencies for the deployment. In this regard, the price operators will be willing to pay for 700 MHz spectrum will depend on them having already spectrum in the 800 MHz frequency band or not. However, since competition for the new spectrum will not be so strong, expected incomes from 700 MHz spectrum awards will be generally lower than those from the digital dividend, despite this spectrum being as valuable as 800 MHz spectrum for some operators. In the second place, regarding femtocell deployment, some conclusions can be drawn in terms of deployment cost savings and also with reference to the business model they enable. Savings provided by a joint macro-femto LTE network as compared to an exclusively macrocellular deployment increase as the available bandwidth for the macrocells decreases. Therefore, for a convergent operator the deployment of femtocells can only have economic sense if the available bandwidth is scarce (around 2x10 MHz), which might be the case of fix market operators which are new entrant in mobile market. Besides, open access models are interesting for exclusively mobile operators, since they make costs more flexible by substituting macrocell base stations by femtocells, but they need to be deployed relatively densely populated areas so that they can offload traffic from several macrocell users simultaneously. Nonetheless, femtocells are beneficial in all cases if the user assumes both femtocell and backhaul costs, which only seems probable if they are integrated in a business model commercializing new services. Therefore, in many of the cases analyzed femtocell deployment only makes sense if they increase revenues per user through new added value services which need from guaranteed quality of service, thus exploiting its main competitive advantage compared to WiFi. Finally, regarding the role of LTE technology in the provision of fixed wireless access services for 30 Mbps broadband, a TD-LTE model has been developed and a prospective study has been carried out through techno-economic methodology for the Spanish case. Obtained results foresee a FTTH coverage footprint of 74% households for 2020, and prove that a TD-LTE network in the 3.5 GHz band results feasible to increase 30 Mbps service coverage in additional 14 percentage points. To sum up, obtained results show LTE technology capability to address new challenges regarding both mobile traffic growth, particularly critical in urban zones, and the current digital divide in fast broadband access in most rural zones.