800 resultados para Alto Adriatico, “red tides”, Dinamica del fitoplancton
Resumo:
El trabajo presenta una propuesta metodológica alternativa al modelo clásico de enseñanza, que se adapte a las características del deporte, las necesidades reales del jugador y las características de los niños/as a los cuales va destinada nuestra enseñanza, buscando una transferencia horizontal entre deportes que presenten una misma estructura praxeológica de cooperación y oposición con invasión de campo. El modelo clásico de enseñanza no considera la estructura de los juegos deportivos colectivos (J. D. C.), sus características ni los factores que componen la acción motriz del jugador, ya que pasa por alto que el eje central del proceso de enseñanza es el alumno, no considerando sus características psicológicas ni biológicas, ni su formación a largo plazo
Resumo:
Objetivos: a. Determinar la eficacia de la actividad física en la reducción del riesgo de enfermedades cardiovasculares. b. Analizar los cambios relativos en los niveles de riesgo de padecer enfermedades cardiovasculares de acuerdo a distintas intensidades de actividad física (Bajo vs. Moderado; Bajo vs. Alto; Moderado vs. Alto). Metodología: La investigación es de tipo cuantitativa, por lo cual, se realizó una revisión sistemática mediante el uso de una técnica estadística denominada meta-análisis. Los meta-análisis se dividieron en tres niveles de actividad física con el objetivo de comparar en cada uno el riesgo relativo, en relación con las enfermedades cardiovasculares (Bajo vs. Moderado; Bajo vs. Alto; Moderado vs. Alto). En primer lugar, se formuló un problema de investigación, con el cual se determinó la ecuación de búsqueda a utilizar y los criterios de inclusión y exclusión de los estudios que fueron identificados. En segundo lugar, se procedió con la búsqueda de estudios aplicando la ecuación de búsqueda en la base de datos PUBMED. Seguido a esto, se codificaron los estudios para proceder a realizar el análisis estadístico. Luego se calculó el tamaño del efecto medio de los estudios incluidos en el meta-análisis y se aplicaron una serie de test a fin de descartar algún posible sesgo de publicación. En los casos que se detectó heterogeneidad, se procedió a realizar un análisis de las variables moderadoras, para las variables continuas se aplicó una meta-regresión, y para las variables categóricas un análisis normalizado de varianza. Resultados: En la primer etapa, se analizaron los niveles de actividad física bajo vs. moderado según los METs consumidos en cada estudio siguiendo los criterios de la OMS , utilizando el modelo de efectos aleatorios. De acuerdo a este análisis, se obtuvo un tamaño del efecto medio de 0.762 (0.678-0857; 95 IC), esta valor expresa que las personas que realizan actividad física en forma moderada reducen en un 23.8 el riesgo de padecer enfermedades cardiovasculares. Luego para evaluar y descartar la posibilidad de un sesgo de selección, se realizó el test de Egger el cual arrojó un p-valor de 0.67, en consecuencia, se confirmó la ausencia de sesgo. Por último, debido a la presencia de heterogeneidad, se procedió a realizar un análisis de las variables moderadoras, con el cual se determinó que los años de seguimiento (p=0.000; 95 IC) y los países de estudio (p=0.0096; 95 IC) explicaban en parte la heterogeneidad detectada. ; ;En la segunda etapa, se analizaron los niveles de actividad física moderado vs. alto utilizando el modelo de efectos aleatorios. En este análisis se observó un tamaño del efecto medio de 0.797 (0.703-0.902; 95 IC), en consecuencia, este valor expresa que las personas que realizan actividad física en forma vigorosa reducen en un 20.3 el riesgo de padecer enfermedades cardiovasculares en relación con las personas que la realizan en forma moderada. Posteriormente, a fin de evaluar y descartar la posibilidad de un sesgo de selección se realizó el test de Egger con el que se observó un p-valor de 0.394, confirmando así la ausencia de sesgo. Finalmente y debido a la presencia de heterogeneidad, se procedió a realizar un análisis de las variables moderadoras, mediante el cual no se obtuvo significatividad estadística en ninguna de las variables y por ende no se pudo explicar la heterogeneidad detectada. ; ;En la tercer etapa, se analizaron los niveles de actividad física bajo vs. alto utilizando el modelo de efectos aleatorios. Se obtuvo un tamaño del efecto medio de 0.595 (0.486-0.728; 95 IC), en función de este resultado, las personas que realizan actividad física en forma vigorosa reducen en un 40.5 el riesgo de padecer enfermedades cardiovasculares en relación que las personas que realizan actividad física en un nivel bajo. Para descartar un sesgo de selección, se procedió a realizar el test de Egger obteniéndose un p-valor de 0.304, lo que indica ausencia de sesgo. Al haberse encontrado heterogeneidad en los resultados, se realizó un análisis de las variables moderadoras. De este análisis se desprendió que, las variables años de seguimiento (p=0.009; 0.95 IC) y países de estudio (p=0.0113; 95 IC) explican en parte la heterogeneidad detectada. Conclusión: De acuerdo al tamaño del efecto medio obtenido en el estudio meta-analítico sobre los niveles de actividad física bajo vs. moderado, se puede decir que la práctica de actividad física en forma moderada ofrece un efecto protector sobre los individuos que la realizan disminuyendo el riesgo de estos a padecer enfermedades cardiovasculares. ; ;En el caso del análisis de los niveles de actividad física moderado vs. alto, de acuerdo al tamaño del efecto medio obtenido podemos concluir en que la práctica de actividad física en niveles altos ofrece un efecto protector sobre los individuos que la realizan disminuyendo el riesgo de estos a padecer enfermedades cardiovasculares en relación con niveles de actividad física moderada. Por último, evaluados los niveles de actividad física bajo vs. alto, se puede concluir en que las intensidades altas de actividad física proveen un importante efecto protector en relación con las intensidades bajas, de manera tal que disminuyen el riesgo de padecer enfermedades cardiovasculares.
Resumo:
Objetivos: a. Determinar la eficacia de la actividad física en la reducción del riesgo de enfermedades cardiovasculares. b. Analizar los cambios relativos en los niveles de riesgo de padecer enfermedades cardiovasculares de acuerdo a distintas intensidades de actividad física (Bajo vs. Moderado; Bajo vs. Alto; Moderado vs. Alto). Metodología: La investigación es de tipo cuantitativa, por lo cual, se realizó una revisión sistemática mediante el uso de una técnica estadística denominada meta-análisis. Los meta-análisis se dividieron en tres niveles de actividad física con el objetivo de comparar en cada uno el riesgo relativo, en relación con las enfermedades cardiovasculares (Bajo vs. Moderado; Bajo vs. Alto; Moderado vs. Alto). En primer lugar, se formuló un problema de investigación, con el cual se determinó la ecuación de búsqueda a utilizar y los criterios de inclusión y exclusión de los estudios que fueron identificados. En segundo lugar, se procedió con la búsqueda de estudios aplicando la ecuación de búsqueda en la base de datos PUBMED. Seguido a esto, se codificaron los estudios para proceder a realizar el análisis estadístico. Luego se calculó el tamaño del efecto medio de los estudios incluidos en el meta-análisis y se aplicaron una serie de test a fin de descartar algún posible sesgo de publicación. En los casos que se detectó heterogeneidad, se procedió a realizar un análisis de las variables moderadoras, para las variables continuas se aplicó una meta-regresión, y para las variables categóricas un análisis normalizado de varianza. Resultados: En la primer etapa, se analizaron los niveles de actividad física bajo vs. moderado según los METs consumidos en cada estudio siguiendo los criterios de la OMS , utilizando el modelo de efectos aleatorios. De acuerdo a este análisis, se obtuvo un tamaño del efecto medio de 0.762 (0.678-0857; 95 IC), esta valor expresa que las personas que realizan actividad física en forma moderada reducen en un 23.8 el riesgo de padecer enfermedades cardiovasculares. Luego para evaluar y descartar la posibilidad de un sesgo de selección, se realizó el test de Egger el cual arrojó un p-valor de 0.67, en consecuencia, se confirmó la ausencia de sesgo. Por último, debido a la presencia de heterogeneidad, se procedió a realizar un análisis de las variables moderadoras, con el cual se determinó que los años de seguimiento (p=0.000; 95 IC) y los países de estudio (p=0.0096; 95 IC) explicaban en parte la heterogeneidad detectada. ; ;En la segunda etapa, se analizaron los niveles de actividad física moderado vs. alto utilizando el modelo de efectos aleatorios. En este análisis se observó un tamaño del efecto medio de 0.797 (0.703-0.902; 95 IC), en consecuencia, este valor expresa que las personas que realizan actividad física en forma vigorosa reducen en un 20.3 el riesgo de padecer enfermedades cardiovasculares en relación con las personas que la realizan en forma moderada. Posteriormente, a fin de evaluar y descartar la posibilidad de un sesgo de selección se realizó el test de Egger con el que se observó un p-valor de 0.394, confirmando así la ausencia de sesgo. Finalmente y debido a la presencia de heterogeneidad, se procedió a realizar un análisis de las variables moderadoras, mediante el cual no se obtuvo significatividad estadística en ninguna de las variables y por ende no se pudo explicar la heterogeneidad detectada. ; ;En la tercer etapa, se analizaron los niveles de actividad física bajo vs. alto utilizando el modelo de efectos aleatorios. Se obtuvo un tamaño del efecto medio de 0.595 (0.486-0.728; 95 IC), en función de este resultado, las personas que realizan actividad física en forma vigorosa reducen en un 40.5 el riesgo de padecer enfermedades cardiovasculares en relación que las personas que realizan actividad física en un nivel bajo. Para descartar un sesgo de selección, se procedió a realizar el test de Egger obteniéndose un p-valor de 0.304, lo que indica ausencia de sesgo. Al haberse encontrado heterogeneidad en los resultados, se realizó un análisis de las variables moderadoras. De este análisis se desprendió que, las variables años de seguimiento (p=0.009; 0.95 IC) y países de estudio (p=0.0113; 95 IC) explican en parte la heterogeneidad detectada. Conclusión: De acuerdo al tamaño del efecto medio obtenido en el estudio meta-analítico sobre los niveles de actividad física bajo vs. moderado, se puede decir que la práctica de actividad física en forma moderada ofrece un efecto protector sobre los individuos que la realizan disminuyendo el riesgo de estos a padecer enfermedades cardiovasculares. ; ;En el caso del análisis de los niveles de actividad física moderado vs. alto, de acuerdo al tamaño del efecto medio obtenido podemos concluir en que la práctica de actividad física en niveles altos ofrece un efecto protector sobre los individuos que la realizan disminuyendo el riesgo de estos a padecer enfermedades cardiovasculares en relación con niveles de actividad física moderada. Por último, evaluados los niveles de actividad física bajo vs. alto, se puede concluir en que las intensidades altas de actividad física proveen un importante efecto protector en relación con las intensidades bajas, de manera tal que disminuyen el riesgo de padecer enfermedades cardiovasculares.
Resumo:
La presentación sintetiza los principales aspectos teóricos, metodológicos, avances y conclusiones del Proyecto Red de Medición del Impacto de la Popularización de la Ciencia y Tecnología en Iberoamérica (REMIPCYT) con financiamiento del Programa Iberoamericano CYTED. El mismo se desarrolló en el marco de la RED POP - RED de Popularización de la Ciencia y Tecnología en América Latina y el Caribe. El impacto se interpreta como los efectos generados en los sujetos sociales y en la sociedad, como consecuencia de procesos de apropiación de conocimientos de Ciencia y Tecnología. Efectos que se traducen y se leen a través de actitudes, prácticas, comportamientos sociales. Los resultados dan cuenta de modificaciones en cuatro dimensiones seleccionadas 1.- grado de involucramiento en la actividad de popularización, 2.- relación entre el contenido temático de popularización y la toma de decisiones personales de los participantes, 3.- relación entre la popularización y el diálogo de saberes 4.- impacto de la popularización en la formación personal y la vida laboral
Resumo:
El trabajo presenta una propuesta metodológica alternativa al modelo clásico de enseñanza, que se adapte a las características del deporte, las necesidades reales del jugador y las características de los niños/as a los cuales va destinada nuestra enseñanza, buscando una transferencia horizontal entre deportes que presenten una misma estructura praxeológica de cooperación y oposición con invasión de campo. El modelo clásico de enseñanza no considera la estructura de los juegos deportivos colectivos (J. D. C.), sus características ni los factores que componen la acción motriz del jugador, ya que pasa por alto que el eje central del proceso de enseñanza es el alumno, no considerando sus características psicológicas ni biológicas, ni su formación a largo plazo
Resumo:
Objetivos: a. Determinar la eficacia de la actividad física en la reducción del riesgo de enfermedades cardiovasculares. b. Analizar los cambios relativos en los niveles de riesgo de padecer enfermedades cardiovasculares de acuerdo a distintas intensidades de actividad física (Bajo vs. Moderado; Bajo vs. Alto; Moderado vs. Alto). Metodología: La investigación es de tipo cuantitativa, por lo cual, se realizó una revisión sistemática mediante el uso de una técnica estadística denominada meta-análisis. Los meta-análisis se dividieron en tres niveles de actividad física con el objetivo de comparar en cada uno el riesgo relativo, en relación con las enfermedades cardiovasculares (Bajo vs. Moderado; Bajo vs. Alto; Moderado vs. Alto). En primer lugar, se formuló un problema de investigación, con el cual se determinó la ecuación de búsqueda a utilizar y los criterios de inclusión y exclusión de los estudios que fueron identificados. En segundo lugar, se procedió con la búsqueda de estudios aplicando la ecuación de búsqueda en la base de datos PUBMED. Seguido a esto, se codificaron los estudios para proceder a realizar el análisis estadístico. Luego se calculó el tamaño del efecto medio de los estudios incluidos en el meta-análisis y se aplicaron una serie de test a fin de descartar algún posible sesgo de publicación. En los casos que se detectó heterogeneidad, se procedió a realizar un análisis de las variables moderadoras, para las variables continuas se aplicó una meta-regresión, y para las variables categóricas un análisis normalizado de varianza. Resultados: En la primer etapa, se analizaron los niveles de actividad física bajo vs. moderado según los METs consumidos en cada estudio siguiendo los criterios de la OMS , utilizando el modelo de efectos aleatorios. De acuerdo a este análisis, se obtuvo un tamaño del efecto medio de 0.762 (0.678-0857; 95 IC), esta valor expresa que las personas que realizan actividad física en forma moderada reducen en un 23.8 el riesgo de padecer enfermedades cardiovasculares. Luego para evaluar y descartar la posibilidad de un sesgo de selección, se realizó el test de Egger el cual arrojó un p-valor de 0.67, en consecuencia, se confirmó la ausencia de sesgo. Por último, debido a la presencia de heterogeneidad, se procedió a realizar un análisis de las variables moderadoras, con el cual se determinó que los años de seguimiento (p=0.000; 95 IC) y los países de estudio (p=0.0096; 95 IC) explicaban en parte la heterogeneidad detectada. ; ;En la segunda etapa, se analizaron los niveles de actividad física moderado vs. alto utilizando el modelo de efectos aleatorios. En este análisis se observó un tamaño del efecto medio de 0.797 (0.703-0.902; 95 IC), en consecuencia, este valor expresa que las personas que realizan actividad física en forma vigorosa reducen en un 20.3 el riesgo de padecer enfermedades cardiovasculares en relación con las personas que la realizan en forma moderada. Posteriormente, a fin de evaluar y descartar la posibilidad de un sesgo de selección se realizó el test de Egger con el que se observó un p-valor de 0.394, confirmando así la ausencia de sesgo. Finalmente y debido a la presencia de heterogeneidad, se procedió a realizar un análisis de las variables moderadoras, mediante el cual no se obtuvo significatividad estadística en ninguna de las variables y por ende no se pudo explicar la heterogeneidad detectada. ; ;En la tercer etapa, se analizaron los niveles de actividad física bajo vs. alto utilizando el modelo de efectos aleatorios. Se obtuvo un tamaño del efecto medio de 0.595 (0.486-0.728; 95 IC), en función de este resultado, las personas que realizan actividad física en forma vigorosa reducen en un 40.5 el riesgo de padecer enfermedades cardiovasculares en relación que las personas que realizan actividad física en un nivel bajo. Para descartar un sesgo de selección, se procedió a realizar el test de Egger obteniéndose un p-valor de 0.304, lo que indica ausencia de sesgo. Al haberse encontrado heterogeneidad en los resultados, se realizó un análisis de las variables moderadoras. De este análisis se desprendió que, las variables años de seguimiento (p=0.009; 0.95 IC) y países de estudio (p=0.0113; 95 IC) explican en parte la heterogeneidad detectada. Conclusión: De acuerdo al tamaño del efecto medio obtenido en el estudio meta-analítico sobre los niveles de actividad física bajo vs. moderado, se puede decir que la práctica de actividad física en forma moderada ofrece un efecto protector sobre los individuos que la realizan disminuyendo el riesgo de estos a padecer enfermedades cardiovasculares. ; ;En el caso del análisis de los niveles de actividad física moderado vs. alto, de acuerdo al tamaño del efecto medio obtenido podemos concluir en que la práctica de actividad física en niveles altos ofrece un efecto protector sobre los individuos que la realizan disminuyendo el riesgo de estos a padecer enfermedades cardiovasculares en relación con niveles de actividad física moderada. Por último, evaluados los niveles de actividad física bajo vs. alto, se puede concluir en que las intensidades altas de actividad física proveen un importante efecto protector en relación con las intensidades bajas, de manera tal que disminuyen el riesgo de padecer enfermedades cardiovasculares.
Resumo:
La presentación sintetiza los principales aspectos teóricos, metodológicos, avances y conclusiones del Proyecto Red de Medición del Impacto de la Popularización de la Ciencia y Tecnología en Iberoamérica (REMIPCYT) con financiamiento del Programa Iberoamericano CYTED. El mismo se desarrolló en el marco de la RED POP - RED de Popularización de la Ciencia y Tecnología en América Latina y el Caribe. El impacto se interpreta como los efectos generados en los sujetos sociales y en la sociedad, como consecuencia de procesos de apropiación de conocimientos de Ciencia y Tecnología. Efectos que se traducen y se leen a través de actitudes, prácticas, comportamientos sociales. Los resultados dan cuenta de modificaciones en cuatro dimensiones seleccionadas 1.- grado de involucramiento en la actividad de popularización, 2.- relación entre el contenido temático de popularización y la toma de decisiones personales de los participantes, 3.- relación entre la popularización y el diálogo de saberes 4.- impacto de la popularización en la formación personal y la vida laboral
Resumo:
El trabajo presenta una propuesta metodológica alternativa al modelo clásico de enseñanza, que se adapte a las características del deporte, las necesidades reales del jugador y las características de los niños/as a los cuales va destinada nuestra enseñanza, buscando una transferencia horizontal entre deportes que presenten una misma estructura praxeológica de cooperación y oposición con invasión de campo. El modelo clásico de enseñanza no considera la estructura de los juegos deportivos colectivos (J. D. C.), sus características ni los factores que componen la acción motriz del jugador, ya que pasa por alto que el eje central del proceso de enseñanza es el alumno, no considerando sus características psicológicas ni biológicas, ni su formación a largo plazo
Resumo:
Introduction and motivation: A wide variety of organisms have developed in-ternal biomolecular clocks in order to adapt to cyclic changes of the environment. Clock operation involves genetic networks. These genetic networks have to be mod¬eled in order to understand the underlying mechanism of oscillations and to design new synthetic cellular clocks. This doctoral thesis has resulted in two contributions to the fields of genetic clocks and systems and synthetic biology, generally. The first contribution is a new genetic circuit model that exhibits an oscillatory behav¬ior through catalytic RNA molecules. The second and major contribution is a new genetic circuit model demonstrating that a repressor molecule acting on the positive feedback of a self-activating gene produces reliable oscillations. First contribution: A new model of a synthetic genetic oscillator based on a typical two-gene motif with one positive and one negative feedback loop is pre¬sented. The originality is that the repressor is a catalytic RNA molecule rather than a protein or a non-catalytic RNA molecule. This catalytic RNA is a ribozyme that acts post-transcriptionally by binding to and cleaving target mRNA molecules. This genetic clock involves just two genes, a mRNA and an activator protein, apart from the ribozyme. Parameter values that produce a circadian period in both determin¬istic and stochastic simulations have been chosen as an example of clock operation. The effects of the stochastic fluctuations are quantified by a period histogram and autocorrelation function. The conclusion is that catalytic RNA molecules can act as repressor proteins and simplify the design of genetic oscillators. Second and major contribution: It is demonstrated that a self-activating gene in conjunction with a simple negative interaction can easily produce robust matically validated. This model is comprised of two clearly distinct parts. The first is a positive feedback created by a protein that binds to the promoter of its own gene and activates the transcription. The second is a negative interaction in which a repressor molecule prevents this protein from binding to its promoter. A stochastic study shows that the system is robust to noise. A deterministic study identifies that the oscillator dynamics are mainly driven by two types of biomolecules: the protein, and the complex formed by the repressor and this protein. The main conclusion of this study is that a simple and usual negative interaction, such as degradation, se¬questration or inhibition, acting on the positive transcriptional feedback of a single gene is a sufficient condition to produce reliable oscillations. One gene is enough and the positive transcriptional feedback signal does not need to activate a second repressor gene. At the genetic level, this means that an explicit negative feedback loop is not necessary. Unlike many genetic oscillators, this model needs neither cooperative binding reactions nor the formation of protein multimers. Applications and future research directions: Recently, RNA molecules have been found to play many new catalytic roles. The first oscillatory genetic model proposed in this thesis uses ribozymes as repressor molecules. This could provide new synthetic biology design principles and a better understanding of cel¬lular clocks regulated by RNA molecules. The second genetic model proposed here involves only a repression acting on a self-activating gene and produces robust oscil¬lations. Unlike current two-gene oscillators, this model surprisingly does not require a second repressor gene. This result could help to clarify the design principles of cellular clocks and constitute a new efficient tool for engineering synthetic genetic oscillators. Possible follow-on research directions are: validate models in vivo and in vitro, research the potential of second model as a genetic memory, investigate new genetic oscillators regulated by non-coding RNAs and design a biosensor of positive feedbacks in genetic networks based on the operation of the second model Resumen Introduccion y motivacion: Una amplia variedad de organismos han desarro-llado relojes biomoleculares internos con el fin de adaptarse a los cambios ciclicos del entorno. El funcionamiento de estos relojes involucra redes geneticas. El mo delado de estas redes geneticas es esencial tanto para entender los mecanismos que producen las oscilaciones como para diseiiar nuevos circuitos sinteticos en celulas. Esta tesis doctoral ha dado lugar a dos contribuciones dentro de los campos de los circuitos geneticos en particular, y biologia de sistemas y sintetica en general. La primera contribucion es un nuevo modelo de circuito genetico que muestra un comportamiento oscilatorio usando moleculas de ARN cataliticas. La segunda y principal contribucion es un nuevo modelo de circuito genetico que demuestra que una molecula represora actuando sobre el lazo de un gen auto-activado produce oscilaciones robustas. Primera contribucion: Es un nuevo modelo de oscilador genetico sintetico basado en una tipica red genetica compuesta por dos genes con dos lazos de retroa-limentacion, uno positivo y otro negativo. La novedad de este modelo es que el represor es una molecula de ARN catalftica, en lugar de una protefna o una molecula de ARN no-catalitica. Este ARN catalitico es una ribozima que actua despues de la transcription genetica uniendose y cortando moleculas de ARN mensajero (ARNm). Este reloj genetico involucra solo dos genes, un ARNm y una proteina activadora, aparte de la ribozima. Como ejemplo de funcionamiento, se han escogido valores de los parametros que producen oscilaciones con periodo circadiano (24 horas) tanto en simulaciones deterministas como estocasticas. El efecto de las fluctuaciones es-tocasticas ha sido cuantificado mediante un histograma del periodo y la función de auto-correlacion. La conclusion es que las moleculas de ARN con propiedades cataliticas pueden jugar el misnio papel que las protemas represoras, y por lo tanto, simplificar el diseno de los osciladores geneticos. Segunda y principal contribucion: Es un nuevo modelo de oscilador genetico que demuestra que un gen auto-activado junto con una simple interaction negativa puede producir oscilaciones robustas. Este modelo ha sido estudiado y validado matematicamente. El modelo esta compuesto de dos partes bien diferenciadas. La primera parte es un lazo de retroalimentacion positiva creado por una proteina que se une al promotor de su propio gen activando la transcription. La segunda parte es una interaction negativa en la que una molecula represora evita la union de la proteina con el promotor. Un estudio estocastico muestra que el sistema es robusto al ruido. Un estudio determinista muestra que la dinamica del sistema es debida principalmente a dos tipos de biomoleculas: la proteina, y el complejo formado por el represor y esta proteina. La conclusion principal de este estudio es que una simple y usual interaction negativa, tal como una degradation, un secuestro o una inhibition, actuando sobre el lazo de retroalimentacion positiva de un solo gen es una condition suficiente para producir oscilaciones robustas. Un gen es suficiente y el lazo de retroalimentacion positiva no necesita activar a un segundo gen represor, tal y como ocurre en los relojes actuales con dos genes. Esto significa que a nivel genetico un lazo de retroalimentacion negativa no es necesario de forma explicita. Ademas, este modelo no necesita reacciones cooperativas ni la formation de multimeros proteicos, al contrario que en muchos osciladores geneticos. Aplicaciones y futuras lineas de investigacion: En los liltimos anos, se han descubierto muchas moleculas de ARN con capacidad catalitica. El primer modelo de oscilador genetico propuesto en esta tesis usa ribozimas como moleculas repre¬soras. Esto podria proporcionar nuevos principios de diseno en biologia sintetica y una mejor comprension de los relojes celulares regulados por moleculas de ARN. El segundo modelo de oscilador genetico propuesto aqui involucra solo una represion actuando sobre un gen auto-activado y produce oscilaciones robustas. Sorprendente-mente, un segundo gen represor no es necesario al contrario que en los bien conocidos osciladores con dos genes. Este resultado podria ayudar a clarificar los principios de diseno de los relojes celulares naturales y constituir una nueva y eficiente he-rramienta para crear osciladores geneticos sinteticos. Algunas de las futuras lineas de investigation abiertas tras esta tesis son: (1) la validation in vivo e in vitro de ambos modelos, (2) el estudio del potential del segundo modelo como circuito base para la construction de una memoria genetica, (3) el estudio de nuevos osciladores geneticos regulados por ARN no codificante y, por ultimo, (4) el rediseno del se¬gundo modelo de oscilador genetico para su uso como biosensor capaz de detectar genes auto-activados en redes geneticas.
Resumo:
En los últimos años, estamos siendo testigos de la alta implantación en la sociedad de dispositivos de comunicación. Lo que hace años estaba reservado a un público reducido, con claras necesidades en comunicación, se ha trasladado al público general, dado la amplia variedad de servicios que sobre los nuevos medios de comunicación se han desarrollado. De hecho, el mayor tráfico de datos en la actualidad no se produce al hilo de necesidades de máxima importancia, sino como producto de nuevos hábitos cotidianos. En este contexto de renovación tecnológica constante en busca de la eficiencia, las antenas reflectoras reflectarray (o, simplemente, los reflectarrays, RAs, [1]) se presentan como una opción competitiva contra los reflectores parabólicos metálicos. En su versión más simple, una antena reflectarray se trata de una estructura compuesta de un elemento alimentador radiante, como puede ser una bocina, y de una superficie plana, consistente en multitud de elementos individuales dispuestos en una rejilla periódica. Sobre esta superficie plana, los frentes de onda provenientes del alimentador son reflejados formando frentes de ondas planas, de una manera análoga a como lo hace un reflector parabólico. A partir de la configuración inicial, y centrándose en el principio de funcionamiento, se ha ido modificando el tipo de elemento RA empleado, consiguiendo RA cada vez más operativos. Es, sobre todo, con el nacimiento de la tecnología impresa cuando las antenas RAs vuelven a cobrar interés. Aunque el uso de tecnología impresa supuso un gran impulso en los RAs, también abrió otros desafíos en lo que al diseño de ellos se refiere. Desde el punto de vista del análisis, es común suponer que el elemento RA se encuentra en un ambiente infinitamente periódico, de forma que se puedan aplicar las condiciones de contorno de Floquet (suposición de periodicidad local). Desde un punto de vista funcional, en general, los elementos RA de tecnología impresa presentan un ancho de banda reducido, que condiciona el ancho de banda del RA completo. Entre las soluciones aportadas, es comúnmente aceptado que las estructuras multicapa, con resonadores a distintas frecuencias cercanas, pueden mitigar en parte el problema del ancho de banda. Por ello, en la actualidad, los elementos RA más comunes están compuestos por varios elementos resonadores, cuyas dimensiones constituyen los parámetros de diseño libres. Es decir, en función de dichas dimensiones, el elemento RA tendrá un valor del coeficiente de reflexión u otro. Esto supone un aumento en la complejidad a la hora de analizar dicho elemento por los métodos numéricos conocidos, como el Método de los Momentos (MoM) o el Método de Elementos Finitos (FEM, por las siglas de su traducción inglesa Finite Element Method), que redundará en un mayor tiempo de cómputo en el análisis. Por otra parte, como se muestra en la Figura R.1, el diseño de un RA conlleva analizar multitud de veces el elemento RA considerado. En efecto, se trata de un método de diseño indirecto, en donde las dimensiones de los parámetros geométricos libres de cada elemento RA se obtienen de manera iterativa usando un optimizador. Se ve claro, entonces, que el aumento en tiempo de análisis del elemento RA repercute en gran medida en el tiempo de diseño total, por lo que una reducción en el tiempo de análisis del elemento RA podría ser muy beneficioso. Uno de los métodos para conseguir reducir el tiempo de diseño de un RA, que se puede encontrar en la literatura, es emplear un modelo de la respuesta del elemento RA en función de los parámetros libres. La cuestión que aflora es cuál es la herramienta idónea para modelar la respuesta del elemento RA. En los últimos años se han propuestos varias formas. La primera de ellas consistía en encontrar un equivalente circuital. Esta aproximación está bien extendida para otras estructuras EM, donde los equivalentes circuitales con componentes LC ofrecen respuestas muy precisas con respecto a las que ofrecen las estructuras EM en sí. A raíz del carácter no lineal de la respuesta, hay autores que han propuesto para el diseño de RAs la creación de tablas de datos (look up tables) que, para cada parámetro de diseño de interés (suele ser el desfase introducido por el elemento) guardan las dimensiones de los parámetros geométricos libres asociados. De esta forma, consiguen un diseño rápido, pero poco versátil, ya que la tabla ofrece un único valor para cada entrada, por lo que es difícil jugar con más de una restricción de diseño. Más recientemente, se está comenzando a utilizar, para la caracterización de estructuras EM, unos sistemas llamados Redes Neuronales Artificiales (ANN, por sus siglas en inglés Artificial Neural Network). El uso fundamental de los mismos en EM es el de servir como interpoladores no lineales. Se trata de sistemas que admiten múltiples parámetros de entradas y múltiples parámetros de salida. Antes de poder ser usados como interpoladores, deben ser entrenados. Para ello, necesitan de un conjunto de pares de los parámetros de entrada a la red, con los valores de las salidas asociados. Algunos usos en electromagnetismo de las ANNs que se pueden encontrar en la literatura son: el modelado de filtros; la caracterización de dispositivos activos; la obtención de modelos que aceleran los algoritmos que calculan la dirección de llegada en antenas de radar; o el diseño de arrays de antenas. Volviendo al modelado de elementos RA, en este trabajo haremos uso de las ANNs para caracterizar distintos tipos de elementos RA. A lo largo de estos últimos años, se ha considerado esta posibilidad como una de las más prometedoras. De hecho, podemos encontrar algunas pocas referencias al respecto, varias de las cuales han sido publicadas por distintos autores durante la elaboración del trabajo recogido en esta Tesis. Como veremos, los resultados que vamos a presentar aportan novedades con respecto a la citada literatura. Particularmente, en este trabajo se ha realizado la caracterización de un elemento RA de tres capas, considerando hasta 9 parámetros de entrada (seis parámetros geométricos, las dos coordenadas del ángulo de incidencia, y la frecuencia) y 4 parámetros de salida complejos (los coeficientes de reflexión para dos polarizaciones ortogonales lineales). Haciendo uso de esta caracterización en el flujo de diseño de RAs, se ha realizado el análisis y el diseño de varias antenas RA con restricciones de diseño de comunicaciones espaciales. Los resultados fueron exitosos comparados con los resultados obtenidos por los métodos tradicionales. De manera puntualizada, podríamos resumir las aportaciones que se verán en esta Tesis como: Caracterización de distintos elementos RA mediante ANNs basadas en el Perceptrón Multicapa (MLP). En concreto, se ha realizado con éxito la caracterización de un elemento RA de parche acoplado a línea de retardo a través de apertura; la caracterización de un elemento RA basado en dipolos sobre substratos de distintas características eléctricas en el rango de centenas de GHz; y la caracterización de un elemento RA basado en 3 parches apilados, con 9 parámetros libres en su caracterización. Uso del FEM, de la técnica de segmentación en subdominios y de la generación y manipulación de accesos MAM para el análisis y la caracterización de elementos RA mediante ANNs. Desarrollo de una nueva técnica de obtención de muestras, para el caso de estructura multicapa cuyo estudio EM se pueda dividir en dos pasos: estudio de cada capa y conexión de capas. De esta forma, se ha podido reducir en varios órdenes de magnitud el tiempo necesario para obtener el set de entrenamiento de las ANNs. Valoración del uso de distintos métodos de entrenamiento de segundo orden para el entrenamiento de redes ANN MLP, en la caracterización de elementos RA. Desarrollo de una nueva técnica para realizar el entrenamiento de redes ANNs basadas en el MLP, denominada como Entrenamiento en Cascada. Dado el alto número de parámetros a caracterizar, era difícil conseguir una red que, partiendo del número de entradas deseado, proporcionara convergencia con precisión suficiente. Con el algoritmo propuesto y probado en esta Tesis, se consiguió entrenar redes de 8 parámetros de entradas (el noveno parámetro, la frecuencia, correspondía a redes diferentes para cada valor) con gran precisión. Desarrollo de un método adaptativo para mejorar la precisión de las ANNs en el análisis de antenas RA. Este método, basado en re-entrenar las ANNs para sub rangos de los parámetros de entrada en donde el error es mayor, aporta una precisión mayor, al mejorar el entrenamiento global de las ANNs, en un tiempo aceptable, ya que solo se incluyen nuevas muestras en torno a los valores donde el error es mayor. Análisis de antena RA completa, con cobertura según especificaciones de la misión AMAZONAS (haz conformado, banda Ku), usando las caracterización el elemento RA obtenida mediante ANNs. La mejora en tiempo de análisis conseguida con respecto al uso del MoM está en un factor 102, con precisiones comparables. Diseño de antenas RA completas, con especificaciones de haz pincel y EuTELSAT (banda Ku). De nuevo, la mejora en tiempo de diseño conseguida están en torno a 102. De todos los puntos anteriores, son de destacar los dos últimos, que forman el objetivo principal de esta Tesis. Esto es, el uso de modelos rápidos de elementos RA mediante ANNs para el análisis y el diseño de antenas para comunicaciones por satélite.
Resumo:
Nuestro modelo es evaluar las ganancias que deberían generar la creación de un centro de intercambio de gestión individual en zona regable del Canal de Urgel para que tal centro resultase beneficioso para la comunidad de regantes. La zona regable del Canal de Urgel ocupa más de 70000 ha de regadío. La red de riego del Canal de Urgel está constituida por canales, acequias y alimentadores que conforman un sistema de aproximadamente 3000 Km. Las acequias que se nutren de agua provinente del drenaje de parcelas ya regadas se denominan alimentadores. Más del 11.8% de la superficie es regada con agua procedente de alimentadores. La creación de un centro de intercambio de gestión individual permitiría a cada unidad de riego decidir el volumen de agua a utilizar y el volumen a ceder a dicho centro. Sin embargo, sin medición volumétrica la cesión individual de derechos es altamente problemática. Por otra parte la modernización de la red de impediría el uso del agua proveniente de los alimentadores. En ausencia de medición volumétrica tal modernización solo sería posible crear un centro de intercambio de gestión colectiva donde la comunidad de regantes (y no la unidad de riego individual) actuase como un único decisor. En nuestro trabajo estimamos, a través de modelos económicos de programación matemática positiva, las ganancias asociadas a un centro de gestión colectiva y al sistema de alimentadores y las comparamos con las ganancias asociadas a un centro de intercambio de gestión individual con el objetivo de determinar las ganancias mínimas que debería reportar la creación de un mercado de derechos de gestión individual para que representase una verdadera mejora sobre otros sistemas de riego.
Resumo:
Los planes de estudios de ingeniería civil implican la integración de diversas disciplinas formales en un nivel alto de conocimientos. La Ingeniería del Terreno requiere sólidos conocimientos y habilidades en Geología aplicada, Geomorfología y Topografía. Estas disciplinas se han estudiado a fondo en los programas tradicionales de ingeniería civil, pero a menudo desconectadas entre ellas. El Departamento de Ingeniería y Morfología del Terreno, en la UPM, tiene a su cargo la enseñanza de estas disciplinas en las titulaciones de ingeniería civil, geológica y geodésica. El EEES proporciona un nuevo marco para una mejor integración de las disciplinas, a partir de la experiencia acumulada en más de 200 años de docencia. La Geomática es un campo emergente, como consecuencia de los avances en informática, comunicaciones y medición, así como en el campo de la de teledetección espacial. Se presenta la experiencia de integración de la geología, la geomorfología y la geomática en ingeniería civil, apoyadas en los avances de tecnologías de la información. Se promueve el trabajo en grupos con el fin de adquirir formación geológica a través de la geomática, así como un amplio entrenamiento en búsqueda y tratamiento de datos. Los primeros resultados se obtuvieron en el curso 2008-2009, siendo satisfactorios en cuando a la adquisición de conocimientos y el tiempo empleado en ello. Esta experiencia ha servido de base para la programación de las enseñanzas de Ingeniería del Terreno en los grados de ingeniero civil, geológico y geodésico adaptados al EEES en la UPM.
Resumo:
La Ciencia Ciudadana nace del resultado de involucrar en las investigaciones científicas a todo tipo de personas, las cuales pueden participar en un determinado experimento analizando o recopilando datos. No hace falta que tengan una formación científica para poder participar, es decir cualquiera puede contribuir con su granito de arena. La ciencia ciudadana se ha convertido en un elemento a tener en cuenta a la hora de realizar tareas científicas que requieren mucha dedicación, o que simplemente por el volumen de trabajo que estas implican, resulta casi imposible que puedan ser realizadas por una sola persona o un pequeño grupo de trabajo. El proyecto GLORIA (GLObal Robotic-telescopes Intelligent Array) es la primera red de telescopios robóticos del mundo de acceso libre que permite a los usuarios participar en la investigación astronómica mediante la observación con telescopios robóticos, y/o analizando los datos que otros usuarios han adquirido con GLORIA, o desde otras bases de datos de libre acceso. Con el objetivo de contribuir a esta iniciativa se ha propuesto crear una plataforma web que pasará a formar parte del Proyecto GLORIA, en la que se puedan realizar experimentos astronómicos. Con el objetivo de fomentar la ciencia y el aprendizaje colaborativo se propone construir una aplicación web que se ejecute en la plataforma Facebook. Los experimentos los proporciona la red de telescopios del proyecto GLORIA mediante servicios web y están definidos mediante XML. La aplicación web recibe el XML con la descripción del experimento, lo interpreta y lo representa en la plataforma Facebook para que los usuarios potenciales puedan realizar los experimentos. Los resultados de los experimentos realizados se envían a una base de datos de libre acceso que será gestionada por el proyecto GLORIA, para su posterior análisis por parte de expertos. ---ABSTRACT---The citizen’s science is born out of the result of involving all type of people in scientific investigations, in which, they can participate in a determined experiment analyzing or compiling data. There is no need to have a scientific training in order to participate, but, anyone could contribute doing one’s bit. The citizen’s science has become an element to take into account when carrying out scientific tasks that require a lot dedication, or that, for the volume of work that these involve, are nearly impossible to be carried out by one person or a small working group. The GLORIA Project (Global Robotic-Telescopes Intelligent Array) is the first network of free access robotic telescopes in the world that permits the users to participate in the astronomic investigation by means of observation with robotic telescopes, and/or analyzing data from other users that have obtained through GLORIA, or from other free-access databases. With the aim of contributing to this initiative, a web platform has been created and will be part of the GLORIA Project, in which astronomic experiments can be carried out. With the objective of promoting science and collaborative apprenticeship, a web application carried out in the FACEBOOK platform is to be built. The experiments are founded by the telescopes network of the GLORIA project by means of web services and are defined through XML. The web application receives the XML with the description of the experiment, interprets it and represents it in the FACEBOOK platform in order for potential users may perform the experiments. The results of the experiments carried out are sent to a free-access database that will be managed by the GLORIA Project for its analysis on the part of experts.
Resumo:
Los debates contemporáneos sobre el eclipse del espacio público suelen ofrecer una visión idealizada de su pasado, impidiendo una correcta reconsideración del papel que las técnicas urbanísticas han tenido en la producción y evolución del mismo. Contribuyendo al desarrollo de una historia crítica que subsane estas lagunas, Central Park se presenta aquí como un dispositivo gubernamental ideado para sustituir el régimen de uso del espacio público habitual en las calles de Manhattan a mediados del siglo XIX, por un nuevo conjunto de prácticas espaciales definidas y monitorizadas por el Estado. Tras una descripción de las formas de apropiaciones espontáneas de la calle por parte de las clases populares, se analizan los distintos niveles proyectuales en los cuales se articulaba esta estrategia de domesticación del espacio público: del propio diseño espacial y concepción de la red de lugares del parque, a la regulación normativa del uso y comportamiento de los visitantes, al ejercicio activo de vigilancia y castigo de conductas y sujetos indeseables.
Resumo:
El deterioro del hormigón por ciclos de hielo-deshielo en presencia de sales fundentes es causa frecuente de problemas en los puentes e infraestructuras existentes en los países europeos. Los daños producidos por los ciclos de hielo-deshielo en el hormigón pueden ser internos, fundamentalmente la fisuración y/o externos como el descascarillamiento (desgaste superficial). La España peninsular presenta unas características geográficas y climáticas particulares. El 18% de la superficie tiene una altura superior a 1000mts y, además, la altura media geográfica con respecto al nivel del mar es de 660mts (siendo el segundo país más montañoso de toda Europa).Esto hace que la Red de Carreteras del Estado se vea afectada, durante determinados periodos, por fenómenos meteorológicos adversos, en particular por nevadas y heladas, que pueden comprometer las condiciones de vialidad para la circulación de vehículos. Por este motivo la Dirección General de Carreteras realiza trabajos anualmente (campañas de vialidad invernal, de 6 meses de duración) para el mantenimiento de la vialidad de las carreteras cuando éstas se ven afectadas por estos fenómenos. Existen protocolos y planes operativos que permiten sistematizar estos trabajos de mantenimiento que, además, se han intensificado en los últimos 10 años, y que se fundamentan en el empleo de sales fundentes, principalmente NaCl, con la misión de que no haya placas de hielo, ni nieve, en las carreteras. En zonas de fuerte oscilación térmica, que con frecuencia en España se localizan en la zona central del Pirineo, parte de la cornisa Cantábrica y Sistema Central, se producen importantes deterioros en las estructuras y paramentos de hormigón producidos por los ciclos de hielo- deshielo. Pero además el uso de fundentes de vialidad invernal acelera en gran medida la evolución de estos daños. Los tableros de hormigón de puentes de carretera de unos 40-50 años de antigüedad carecen, en general, de un sistema de impermeabilización, y están formados frecuentemente por un firme de mezcla asfáltica, una emulsión adherente y el hormigón de la losa. En la presente tesis se realiza una investigación que pretende reproducir en laboratorio los procesos que tienen lugar en el hormigón de tableros de puentes existentes de carreteras, de unos 40-50 años de antigüedad, que están expuestos durante largos periodos a sales fundentes, con objeto de facilitar la vialidad invernal, y a cambios drásticos de temperatura (hielo y deshielo). Por ello se realizaron cuatro campañas de investigación, teniendo en cuenta que, si bien nos basamos en la norma europea UNE-CEN/TS 12390-9 “Ensayos de hormigón endurecido. Resistencia al hielo-deshielo. Pérdida de masa”, se fabricaron probetas no estandarizadas para este ensayo, pensado en realidad para determinar la afección de los ciclos únicamente a la pérdida de masa. Las dimensiones de las probetas en nuestro caso fueron 150x300 mm, 75 x 150mm (cilíndricas normalizadas para roturas a compresión según la norma UNE-EN 12390-3) y 286x76x76 (prismáticas normalizadas para estudiar cambio de volumen según la norma ASTM C157), lo cual nos permitió realizar sobre las mismas probetas más ensayos, según se presentan en la tesis y, sobre todo, poder comparar los resultados con probetas extraídas de dimensiones similares en puentes existentes. En la primera campaña, por aplicación de la citada norma, se realizaron ciclos de H/D, con y sin contacto con sales de deshielo (NaCl en disolución del 3% según establece dicha norma). El hormigón fabricado en laboratorio, tratando de simular el de losas de tableros de puentes antiguos, presentó una fc de 22,6 MPa y relación agua/cemento de 0,65. Las probetas de hormigón fabricadas se sometieron a ciclos agresivos de hielo/deshielo (H/D), empleando una temperatura máxima de +20ºC y una temperatura mínima de -20ºC al objeto de poder determinar la sensibilidad de este ensayo tanto al tipo de hormigón elaborado como al tipo de probeta fabricado (cilíndrica y prismática). Esta campaña tuvo una segunda fase para profundizar más en el comportamiento de las probetas sometidas a ciclos H/D en presencia de sales. En la segunda campaña, realizada sobre probetas de hormigón fabricadas en laboratorio iguales a las anteriores, la temperaturas mínima del ensayo se subió a -14ºC, lo que nos permitió analizar el proceso de deterioro con más detalle. (Realizando una serie de ensayos de caracterización no destructivos y otros destructivos, y validando su aplicación a la detección de los deterioros causados tras los ensayos acelerados de hielodeshielo. También mediante aplicación de técnicas de microscopía electrónica.) La tercera campaña, se realizó sobre probetas de hormigón de laboratorio similares a las anteriores, fc de 29,3Mpa y relación a/c de 0,65, en las que se aplicó en una cara un revestimiento asfáltico de 2-4cms, según fueran prismáticas y cilíndricas respectivamente, compuesto por una mezcla asfáltica real (AC16), sobre una imprimación bituminosa. (Para simular el nivel de impermeabilización que produce un firme sobre el tablero de un puente) La cuarta campaña, se desarrolló tras una cuidadosa selección de dos puentes de hormigón de 40-50 años de antigüedad, expuestos y sensibles a deterioros de hielodeshielo, y en carreteras con aportación de fundentes. Una vez esto se extrajeron testigos de hormigón de zonas sanas (nervios del tablero), para realizar en laboratorio los mismos ensayos acelerados de hielo-deshielo y de caracterización, de la segunda campaña, basados en la misma norma. De los resultados obtenidos se concluye que cuando se emplean sales fundentes se acelera de forma significativa el deterioro, aumentando tanto el contenido de agua en los poros como el gradiente generado (mecanismo de deterioro físico). Las sales de deshielo aceleran claramente la aparición del daño, que se incrementa incluso en un factor de 5 según se constata en esta investigación para los hormigones ensayados. Pero además se produce un gradiente de cloruros que se ha detectado tanto en los hormigones diseñados en laboratorio como en los extraídos de puentes existentes. En casi todos los casos han aparecido cambios en la microestructura de la pasta de cemento (mecanismo de deterioro químico), confirmándose la formación de un compuesto en el gel CSH de la pasta de cemento, del tipo Ca2SiO3Cl2, que posiblemente está contribuyendo a la alteración de la pasta y a la aceleración de los daños en presencia de sales fundentes. Existe un periodo entre la aparición de fisuración y la pérdida de masa. Las fisuras progresan rápidamente desde la interfase de los áridos más pequeños y angulosos, facilitando así el deterioro del hormigón. Se puede deducir así que el tipo de árido afecta al deterioro. En el caso de los testigos con recubrimiento asfáltico, parece haberse demostrado que la precipitación de sales genera tensiones en las zonas de hormigón cercanas al recubrimiento, que terminan por fisurar el material. Y se constata que el mecanimo de deterioro químico, probablemente tenga más repercusión que el físico, por cuanto el recubrimiento asfáltico es capaz de retener suficiente agua, como para que el gradiente de contenido de agua en el hormigón sea mucho menor que sin el recubrimiento. Se constató, sin embargo, la importancia del gradiente de cloruros en el hormigon. Por lo que se deduce que si bien el recubrimiento asfáltico es ciertamente protector frente a los ciclos H/D, su protección disminuye en presencia de sales; es decir, los cloruros acabarán afectando al hormigón del tablero del puente. Finalmente, entre los hormigones recientes y los antiguos extraídos de puentes reales, se observa que existen diferencias significativas en cuanto a la resistencia a los ciclos H/D entre ellos. Los hormigones más recientes resultan, a igualdad de propiedades, más resistentes tanto a ciclos de H/D en agua como en sales. Posiblemente el hecho de que los hormigones de los puentes hayan estado expuestos a condiciones de temperaturas extremas durante largos periodos de tiempo les ha sensibilizado. La tesis realizada, junto con nuevos contrastes que se realicen en el futuro, nos permitirá implementar una metodología basada en la extracción de testigos de tableros de puente reales para someterlos a ensayos de hielo-deshielo, basados en la norma europea UNECEN/ TS 12390-9 aunque con probetas no normalizadas para el mismo, y, a su vez, realizar sobre estas probetas otros ensayos de caracterización destructivos, que posibilitarán evaluar los daños ocasionados por este fenómeno y su evolución temporal, para actuar consecuentemente priorizando intervenciones de impermeabilización y reparación en el parque de puentes de la RCE. Incluso será posible la elaboración de mapas de riesgo, en función de las zonas de climatología más desfavorable y de los tratamientos de vialidad invernal que se lleven a cabo. Concrete damage by freeze-thaw cycles in the presence of melting salts frequently causes problems on bridges and infrastructures in European countries. Damage caused by freeze-thaw cycles in the concrete can be internal, essentially cracking and / or external as flaking (surface weathering due to environmental action). The peninsular Spain presents specific climatic and geographical characteristics. 18% of the surface has a height greater than 1,000 m and the geographical average height from the sea level is 660 m (being the second most mountainous country in Europe). This makes the National Road Network affected during certain periods due to adverse weather, particularly snow and ice, which can compromise road conditions for vehicular traffic. For this reason the National Road Authority performs works annually (Winter Road Campaign, along 6 months) to maintain the viability of the roads when they are affected by these phenomena. There are protocols and operational plans that allow systematize these maintenance jobs, that also have intensified in the last 10 years, and which are based on the use of deicing salts, mainly NaCl, with the mission that no ice sheets, or snow appear on the roads. In areas of strong thermal cycling, which in Spain are located in the central area of the Pyrenees, part of the Cantabrian coast and Central System, significant deterioration take place in the structures and wall surfaces of concrete due to freeze-thaw. But also the use of deicing salts for winter maintenance greatly accelerated the development of such damages. The concrete decks for road bridges about 40-50 years old, lack generally a waterproofing system, and are often formed by a pavement of asphalt, an adhesive emulsion and concrete slab. In this thesis the research going on aims to reproduce in the laboratory the processes taking place in the concrete of an existing deck at road bridges, about 40-50 years old, they are exposed for long periods to icing salt, to be performed in order to facilitate winter maintenance, and drastic temperature changes (freezing and thawing). Therefore four campaigns of research were conducted, considering that while we rely on the European standard UNE-CEN/TS 12390-9 "Testing hardened concrete. Freezethaw resistance. Mass loss", nonstandard specimens were fabricated for this test, actually conceived to determine the affection of the cycles only to the mass loss. Dimensions of the samples were in our case 150x300 mm, 75 x 150mm (standard cylindrical specimens for compression fractures UNE-EN 12390-3) and 286x76x76 (standard prismatic specimens to study volume change ASTM C157), which allowed us to carry on same samples more trials, as presented in the thesis, and especially to compare the results with similar sized samples taken from real bridges. In the first campaign, by application of that European standard, freeze-thaw cycles, with and without contact with deicing salt (NaCl 3% solution in compliance with such standard) were performed. Concrete made in the laboratory, trying to simulate the old bridges, provided a compressive strength of 22.6 MPa and water/cement ratio of 0.65. In this activity, the concrete specimens produced were subjected to aggressive freeze/thaw using a maximum temperature of +20ºC and a minimum temperature of - 20°C in order to be able to determine the sensitivity of this test to the concrete and specimens fabricated. This campaign had a second phase to go deeper into the behavior of the specimens subjected to cycled freeze/thaw in the presence of salts. In the second campaign, conducted on similar concrete specimens manufactured in laboratory, temperatures of +20ºC and -14ºC were used in the tests, which allowed us to analyze the deterioration process in more detail (performing a series of non-destructive testing and other destructive characterization, validating its application to the detection of the damage caused after the accelerated freeze-thaw tests, and also by applying electron microscopy techniques). The third campaign was conducted on concrete specimens similar to the above manufactured in laboratory, both cylindrical and prismatic, which was applied on one side a 4 cm asphalt coating, consisting of a real asphalt mixture, on a bituminous primer (for simulate the level of waterproofing that produces a pavement on the bridge deck). The fourth campaign was developed after careful selection of two concrete bridges 40- 50 years old, exposed and sensitive to freeze-thaw damage, in roads with input of melting salts. Concrete cores were extracted from healthy areas, for the same accelerated laboratory freeze-thaw testing and characterization made for the second campaign, based on the same standard. From the results obtained it is concluded that when melting salts are employed deterioration accelerates significantly, thus increasing the water content in the pores, as the gradient. Besides, chloride gradient was detected both in the concrete designed in the laboratory and in the extracted in existing bridges. In all cases there have been changes in the microstructure of the cement paste, confirming the formation of a compound gel CSH of the cement paste, Ca2SiO3Cl2 type, which is possibly contributing to impair the cement paste and accelerating the damage in the presence of melting salts. The detailed study has demonstrated that the formation of new compounds can cause porosity at certain times of the cycles may decrease, paradoxically, as the new compound fills the pores, although this phenomenon does not stop the deterioration mechanism and impairments increase with the number of cycles. There is a period between the occurrence of cracking and mass loss. Cracks progress rapidly from the interface of the smallest and angular aggregate, thus facilitating the deterioration of concrete. It can be deduced so the aggregate type affects the deterioration. The presence of melting salts in the system clearly accelerates the onset of damage, which increases even by a factor of 5 as can be seen in this investigation for concrete tested. In the case of specimens with asphalt coating, it seems to have demonstrated that the precipitation of salts generate tensions in the areas close to the concrete coating that end up cracking the material. It follows that while the asphalt coating is certainly a protection against the freeze/thaw cycles, this protection decreases in the presence of salts; so the chlorides will finally affect the concrete bridge deck. Finally, among the recent concrete specimens and the old ones extracted from real bridges, it is observed that the mechanical strengths are very similar to each other, as well as the porosity values and the accumulation capacity after pore water saturation. However, there are significant differences in resistance to freeze/thaw cycles between them. More recent concrete are at equal properties more resistant both cycles freeze/thaw in water with or without salts. Possibly the fact that concrete bridges have been exposed to extreme temperatures for long periods of time has sensitized them. The study, along with new contrasts that occur in the future, allow us to implement a methodology based on the extraction of cores from the deck of real bridges for submission to freeze-thaw tests based on the European standard UNE-CEN/TS 12390-9 even with non-standard specimens for it, and in turn, performed on these samples other destructive characterization tests, which will enable to assess the damage caused by this phenomenon and its evolution, to act rightly prioritizing interventions improving the waterproofing and other repairs in the bridge stock of the National Road Network. It will even be possible to develop risk maps, depending on the worst weather areas and winter road treatments to be carried out.