39 resultados para Simposio Internacional sobre los Estudios Clásicos en Latinoamérica


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Basílica de la Virgen de los Desamparados, construida entre 1652 y 1667, es el edificio valenciano más importante del siglo XVII (Bérchez 1995). Su elemento más notables es la gran cúpula oval que, en planta, aparece inscrita en un trapezoide. Esta disposición fue muy popular en el Barroco y tiene su origen en los proyectos de Vignola para Sant Andrea in Via Flaminia (1550) y Sant= Anna dei Palafraneri (1572), véase Lotz (1955). En España se construyeron varias cúpulas ovales hacia 1600 (Rodríguez G. de Ceballos 1983); la más grande es la del convento de las Recoletas Bernardas in Alcalá de Henares, 1617-1626, con ejes de 25 x 18 m, y una altura de 11 m (según levantamiento de Schubert 1908). Treinta y tres años tras su terminación, hacia 1700, se construyó una nueva cúpula interior, encajada dentro de la original, para servir de soporte a un enorme fresco del pintor Antonio Palomino en honor de la Virgen de los Desamparados. Esta cúpula es extraordinariamente delgada y presenta algunas disposiciones que la convierten en un caso de excepcional interés en la historia de las cúpulas de fábrica. La estructura y construcción de la Basílica de los Desamparados fue estudiada exhaustivamente en los años 1990 con vistas a elaborar posteriormente un proyecto de restauración. Los trabajos y el proyecto fueron dirigidos por el arquitecto Ignacio Bosch Reig. Algunos estudios fueron publicados en 1999 (Roig y Bosch 1999), y toda la información referente a los estudios y posterior restauración fue compilada y publicada en un libro (Bosch 2006). En este caso se dispone, por tanto, de una enorme cantidad de información sobre la estructura, construcción y forma del edificio. En lo que sigue trataremos sólo la construcción y comportamiento estructural de la doble cúpula de la Basílica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presentan los estudios teóricos y empíricos sobre el peso propio de las estructuras realizados a lo largo de la Historia, en cuatro etapas: de la antigüedad de Galileo, de Galileo a la segunda mitad del S.XIX, hasta la actualidad. Se rehusan las reglas empíricas en diseño de puentes, cubiertas, edificios en altura; Tras la revisión de los estudios teóricos precedentes, con el auxilio del análisis dimensional y análisis clásicos derivados de los escritos de Maxwell, se esclarecen las variables que rigen el problema y sus relaciones; alcance del material, forma (esquema, condiciones de contorno, proporción), grueso o dimensionado, tamaño y acciones (leyes y magnitud). Se demuestran varios teoremas sobre mínimos en consumo de estructuras, y se analizan de forma general tipos de problemas estructurales de comportamiento proporcional y no proporcional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nesidiocoris tenuis (Router) (Hemiptera: Miridae) y Macrolophus basicornis (Stål) (Hemiptera: Miridae), son dos depredadores utilizados en el control de plagas del tomate, principalmente Tuta absoluta (Meyrick) (Lepidoptera: Gelechiidae), en España y Brasil respectivamente. Se ha estudiado la toxicidad residual de ocho modernos plaguicidas en adultos de estas dos especies de miridos, siguiendo la metodología recomendada por la Organización Internacional de Lucha Biológica e Integrada (OILB). Los ensayos se realizaron en dos laboratorios diferentes: Unidad de Protección Vegetal (ETSIA, UPM) y Laboratorio de Estudios de Selectividad (UFLA, Lavras-Brasil). Los insecticidas empleados en ambos laboratorios contenían el mismo ingrediente activo cuando fue posible (en el caso de Deltametrina y Flubendiamida) o pertenecían al mismo grupo de modo de acción principal según la clasificación del IRAC (Comité de Acción para la Resistencia a los Insecticidas): Spirotetramat, Metaflumizona y Sulfoxaflor en España y Spiromesifen, Indoxacarb e Imidacloprid en Brasil, respectivamente. Se evaluó la mortalidad durante los 3 días de exposición a los residuos y cuando fue posible, la descendencia de los supervivientes. Se comparan los resultados y las categorías de toxicología OILB obtenidas para los insecticidas estudiados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prospectiva, es un conjunto de análisis con el fin de explorar o predecir el futuro; “se puede concebir como una realización múltiple” (Jouvenel, 1968) y “depende de la acción del hombre” (Godet, 2004); por esa razón, el hombre puede construir el futuro mejor, para lo cual debe tomar las decisiones correctas en el momento apropiado. En ordenamiento territorial, la prospectiva, constituye una fase intermedia, entre el diagnóstico y la propuesta, y se refiere a la predicción del futuro, mediante dos vías: la proyección de la tendencia y la construcción de escenarios o imágenes futuras; se denomina escenario, a la descripción de una situación territorial futura y el encadenamiento coherente de sucesos que, partiendo de la situación actual, llega a la futura (Gómez Orea, 2008); pueden identificarse múltiples escenarios por la combinación de variables; no obstante, esta tesis se centra en el diseño de tres: el tendencial, el óptimo por analogías con otros territorios a los que se desee aspirar, y uno intermedio entre los anteriores, que parte del consenso de la mayoría de voluntades políticas y ciudadanas. Existen escasas experiencias metodológicas, y en especial, aplicables a los planes de ordenamiento territorial de Centroamérica. En la mayoría de casos estudiados, se identifica la participación como herramienta básica en el diseño de los escenarios; un modelo exclusivamente técnico está abocado al fracaso. En la tesis se diseña una metodología para elaborar la fase de prospectiva en los planes de ordenamiento territorial de Centroamérica; se entiende como un metamodelo, es decir, un "modelo general formado por submodelos específicos"; además del modelo general, se diseñan los submodelos: demográfico, ambiental, poblamiento y económico; para la elaboración de los mismos se usan herramientas; algunas han sido definidas por investigadores y otras se diseñan en este trabajo. Se establece un orden de prelación para el desarrollo de los submodelos; no se recomienda la alteración del mismo, pues el resultado será distinto y erróneo. Se inicia con el submodelo demográfico; se analizan cuatro variables: población total, población distribuida en municipios, población urbana y rural, y población por edades y sexos. Se propone que el cálculo de la población total se determine por métodos clásicos, tasas de crecimiento o cohortes. Posteriormente se realiza la distribución en municipios, urbana‐rural y en los asentamientos; en el escenario tendencial se proyecta por cohortes o tasas de crecimiento, y en el óptimo e intermedio, se considera un análisis de los limitantes al desarrollo urbano, priorizando la distribución de unos municipios y núcleos con respecto a otros. Con la proyección demográfica se desarrolla el submodelo ambiental; se consideran las variables: usos del suelo, unidades ambientales con los usos del suelo predominantes, áreas naturales protegidas, y áreas de amenazas naturales; estas últimas son sumamente importantes en el territorio centroamericano, dada la vulnerabilidad existente; para la proyección de los usos del suelo predominantes se diseña una herramienta donde se establecen los usos del suelo según unidades ambientales en diferentes escenarios, aplicando imágenes multitemporales y la capacidad de acogida del territorio. Una vez definidos los anteriores, se proyecta el submodelo de poblamiento; se proponen: el tamaño, la clasificación, la superficie, la diferenciación y agrupación de los asentamientos; se define el sistema de asentamientos a partir de las variables demográficas y ambientales; para ello se aplica un análisis multivariable‐multicriterio donde se establece la jerarquía de los núcleos de población, y posteriormente se establece la superficie que ocuparan y su forma. A continuación, se propone la prospectiva del submodelo económico, en cuanto a las variables: población económicamente activa (PEA), producción, empleo, desglose por sectores económicos, y la zonificación de suelos de desarrollo económico; luego se añade la prospectiva del submodelo de infraestructuras. Finalmente, se procede a la representación cartográfica, mediante el uso de herramientas SIG (Sistemas de Información Geográfica); para la representación de los escenarios se diseñan mapas, que sean fácilmente comprensibles por los líderes políticos, actores socioeconómicos y por la ciudadanía ("clientes" finales del plan). La metodología de investigación se ha basado en ciclos repetitivos de observación de la realidad en trabajos profesionales, elaboración del modelo y submodelos y verificación posterior mediante su aplicación a casos reales. En consecuencia los submodelos anteriores se han ido desarrollando y verificando en la elaboración de numerosos planes en Centroamérica, de los cuales en la tesis se exponen los dos más expresivos: El Plan de Desarrollo Territorial de la Región de San Miguel, en El Salvador y El Plan de Ordenamiento Territorial de la Región del Valle del Lean, Honduras. El modelo no es aplicable íntegramente a otros territorios; se ha diseñado considerando las características centroamericanas: fuerte crecimiento poblacional, tenencia de la tierra, crecimiento lineal en las principales carreteras, cultivos de autoconsumo (granos básicos) en laderas y montañas, vulnerabilidad ante las amenazas naturales, bajo nivel de tecnificación, entre otras. El modelo posibilita realizar análisis de sensibilidad y el diseño de múltiples escenarios por combinación de variables, dado que se plantean ecuaciones y algoritmos que usan diferentes hipótesis; las limitantes son el tiempo y la disponibilidad de recursos, algo escaso en la redacción de los planes de ordenamiento territorial. Finalmente, la tesis constituye una aportación a los planificadores; espero que ello contribuya a profundizar en este interesante campo de actividad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis realiza una contribución metodológica al estudio del impacto del cambio climático sobre los usos del agua, centrándose particularmente en la agricultura. Tomando en consideración su naturaleza distinta, la metodología aborda de forma integral los impactos sobre la agricultura de secano y la agricultura de regadío. Para ello incorpora diferentes modelos agrícolas y de agua que conjuntamente con las simulaciones de los escenarios climáticos permiten determinar indicadores de impacto basados en la productividad de los cultivos, para el caso de la agricultura de secano, e indicadores de impacto basados en la disponibilidad de agua para irrigación, para el caso de la agricultura de regadío. La metodología toma en consideración el efecto de la variabilidad climática en la agricultura, evaluando las necesidades de adaptación y gestión asociadas a los impactos medios y a la variabilidad en la productividad de los cultivos y el efecto de la variabilidad hidrológica en la disponibilidad de agua para regadío. Considerando la gran cantidad de información proporcionada por las salidas de las simulaciones de los escenarios climáticos y su complejidad para procesarla, se ha desarrollado una herramienta de cálculo automatizada que integra diferentes escenarios climáticos, métodos y modelos que permiten abordar el impacto del cambio climático sobre la agricultura, a escala de grandes extensiones. El procedimiento metodológico parte del análisis de los escenarios climáticos en situación actual (1961-1990) y futura (2071-2100) para determinar su fiabilidad y conocer qué dicen exactamente las proyecciones climáticas a cerca de los impactos esperados en las principales variables que intervienen en el ciclo hidrológico. El análisis hidrológico se desarrolla en los ámbitos territoriales de la planificación hidrológica en España, considerando la disponibilidad de información para validar los resultados en escenario de control. Se utilizan como datos observados las series de escorrentía en régimen natural estimadas el modelo hidrológico SIMPA que está calibrado en la totalidad del territorio español. Al trabajar a escala de grandes extensiones, la limitada disponibilidad de datos o la falta de modelos hidrológicos correctamente calibrados para obtener los valores de escorrentía, muchas veces dificulta el proceso de evaluación, por tanto, en este estudio se plantea una metodología que compara diferentes métodos de interpolación y alternativas para generar series anuales de escorrentía que minimicen el sesgo con respecto a los valores observados. Así, en base a la alternativa que genera los mejores resultados, se obtienen series mensuales corregidas a partir de las simulaciones de los modelos climáticos regionales (MCR). Se comparan cuatro métodos de interpolación para obtener los valores de las variables a escala de cuenca hidrográfica, haciendo énfasis en la capacidad de cada método para reproducir los valores observados. Las alternativas utilizadas consideran la utilización de la escorrentía directa simulada por los MCR y la escorrentía media anual calculada utilizando cinco fórmulas climatológicas basadas en el índice de aridez. Los resultados se comparan además con la escorrentía global de referencia proporcionada por la UNH/GRDC que en la actualidad es el “mejor estimador” de la escorrentía actual a gran escala. El impacto del cambio climático en la agricultura de secano se evalúa considerando el efecto combinado de los riesgos asociados a las anomalías dadas por los cambios en la media y la variabilidad de la productividad de los cultivos en las regiones agroclimáticas de Europa. Este procedimiento facilita la determinación de las necesidades de adaptación y la identificación de los impactos regionales que deben ser abordados con mayor urgencia en función de los riesgos y oportunidades identificadas. Para ello se utilizan funciones regionales de productividad que han sido desarrolladas y calibradas en estudios previos en el ámbito europeo. Para el caso de la agricultura de regadío, se utiliza la disponibilidad de agua para irrigación como un indicador del impacto bajo escenarios de cambio climático. Considerando que la mayoría de estudios se han centrado en evaluar la disponibilidad de agua en régimen natural, en este trabajo se incorpora el efecto de las infraestructuras hidráulicas al momento de calcular el recurso disponible bajo escenarios de cambio climático Este análisis se desarrolla en el ámbito español considerando la disponibilidad de información, tanto de las aportaciones como de los modelos de explotación de los sistemas hidráulicos. Para ello se utiliza el modelo de gestión de recursos hídricos WAAPA (Water Availability and Adaptation Policy Assessment) que permite calcular la máxima demanda que puede atenderse bajo determinados criterios de garantía. Se utiliza las series mensuales de escorrentía observadas y las series mensuales de escorrentía corregidas por la metodología previamente planteada con el objeto de evaluar la disponibilidad de agua en escenario de control. Se construyen proyecciones climáticas utilizando los cambios en los valores medios y la variabilidad de las aportaciones simuladas por los MCR y también utilizando una fórmula climatológica basada en el índice de aridez. Se evalúan las necesidades de gestión en términos de la satisfacción de las demandas de agua para irrigación a través de la comparación entre la disponibilidad de agua en situación actual y la disponibilidad de agua bajo escenarios de cambio climático. Finalmente, mediante el desarrollo de una herramienta de cálculo que facilita el manejo y automatización de una gran cantidad de información compleja obtenida de las simulaciones de los MCR se obtiene un proceso metodológico que evalúa de forma integral el impacto del cambio climático sobre la agricultura a escala de grandes extensiones, y a la vez permite determinar las necesidades de adaptación y gestión en función de las prioridades identificadas. ABSTRACT This thesis presents a methodological contribution for studying the impact of climate change on water use, focusing particularly on agriculture. Taking into account the different nature of the agriculture, this methodology addresses the impacts on rainfed and irrigated agriculture, integrating agricultural and water planning models with climate change simulations scenarios in order to determine impact indicators based on crop productivity and water availability for irrigation, respectively. The methodology incorporates the effect of climate variability on agriculture, assessing adaptation and management needs associated with mean impacts, variability in crop productivity and the effect of hydrologic variability on water availability for irrigation. Considering the vast amount of information provided by the outputs of the regional climate model (RCM) simulations and also its complexity for processing it, a tool has been developed to integrate different climate scenarios, methods and models to address the impact of climate change on agriculture at large scale. Firstly, a hydrological analysis of the climate change scenarios is performed under current (1961-1990) and future (2071-2100) situation in order to know exactly what the models projections say about the expected impact on the main variables involved in the hydrological cycle. Due to the availability of information for validating the results in current situation, the hydrological analysis is developed in the territorial areas of water planning in Spain, where the values of naturalized runoff have been estimated by the hydrological model SIMPA, which are used as observed data. By working in large-scale studies, the limited availability of data or lack of properly calibrated hydrological model makes difficult to obtain runoff time series. So as, a methodology is proposed to compare different interpolation methods and alternatives to generate annual times series that minimize the bias with respect to observed values. Thus, the best alternative is selected in order to obtain bias-corrected monthly time series from the RCM simulations. Four interpolation methods for downscaling runoff to the basin scale from different RCM are compared with emphasis on the ability of each method to reproduce the observed behavior of this variable. The alternatives consider the use of the direct runoff of the RCMs and the mean annual runoff calculated using five functional forms of the aridity index. The results are also compared with the global runoff reference provided by the UNH/GRDC dataset, as a contrast of the “best estimator” of current runoff on a large scale. Secondly, the impact of climate change on rainfed agriculture is assessed considering the combined effect of the risks associated with anomalies given by changes in the mean and variability of crop productivity in the agro-climatic regions of Europe. This procedure allows determining adaptation needs based on the regional impacts that must be addressed with greater urgency in light of the risks and opportunities identified. Statistical models of productivity response are used for this purpose which have been developed and calibrated in previous European study. Thirdly, the impact of climate change on irrigated agriculture is evaluated considering the water availability for irrigation as an indicator of the impact. Given that most studies have focused on assessing water availability in natural regime, the effect of regulation is incorporated in this approach. The analysis is developed in the Spanish territory considering the available information of the observed stream flows and the regulation system. The Water Availability and Adaptation Policy Assessment (WAAPA) model is used in this study, which allows obtaining the maximum demand that could be supplied under certain conditions (demand seasonal distribution, water supply system management, and reliability criteria) for different policy alternatives. The monthly bias corrected time series obtained by previous methodology are used in order to assess water availability in current situation. Climate change projections are constructed taking into account the variation in mean and coefficient of variation simulated by the RCM. The management needs are determined by the agricultural demands satisfaction through the comparison between water availability under current conditions and under climate change projections. Therefore, the methodology allows evaluating the impact of climate change on agriculture to large scale, using a tool that facilitates the process of a large amount of complex information provided by the RCM simulations, in order to determine the adaptation and management needs in accordance with the priorities of the indentified impacts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los fármacos en el agua han sido considerados en los últimos años un problema medioambiental grave, y se ha incrementado el interés por los efectos que pueden producirse en el medio acuático. Aunado a este problema se encuentra el consumo excesivo de medicamentos no controlados, los cuales pueden ser desechados sin tener el tratamiento adecuado; por lo que se ingresan a los cursos de agua. Estos contaminantes emergentes son compuestos cuyo vertido supone un problema sanitario y ambiental. Se trata de contaminantes solubles en agua por lo que son capaces de estar presentes en todas las etapas del ciclo del agua. Han sido numerosos estudios los que se han realizado en diferentes países, ya que su presencia se ha convertido en un tema emergente en la química del medio ambiente, debido a que en las investigaciones realizadas muestran que no hay una eliminación completa a pesar de los distintos procesos que se aplican en las plantas de tratamiento de aguas residuales. Esta contaminación, incrementa la necesidad de conocer cuál es el efecto toxicológico sobre los organismos acuáticos y, en consecuencia, en las personas. La bacteria Escherichia Coli, es un organismo muy estudiado, debido a que se encuentra en los intestinos de los animales y humanos y por lo consiguiente en las aguas negras. Teniendo en cuenta la crítica situación, se planteó estudiar el efecto sobre la bacteria E. coli de 4 fármacos: Atenolol, Azitromicina, Estradiol e Ibuprofeno, para conocer cual era su comportamiento y el efecto que podían producir la presencia de los fármacos en la eliminación por procesos de oxidación. Así también, los efectos producidos sobre E. Coli, después de estar en contacto con los fármacos 1, 3 y 7 días. Se observó que los fármacos tienen efectos en el aumento o eliminación de los microrganismos dependiendo de los tiempos de exposición y la concentración del fármaco. Así mismo se observó que los microorganismos asimilan mejor las concentraciones menores de fármacos, a tiempos de contacto mayores de 24 horas. Con todos los desinfectantes de estudio se observaron ligeras resistencias de la bacteria ante la presencia de los fármacos. Drugs in water have been considered in recent years a serious environmental problem, and has increased interest in the effects that may occur in the aquatic environment. Added to this problem is the excessive consumption of non-controlled drugs, which can be disposed of without proper treatment, so they enter waterways. These are compounds emerging contaminants being discharged is a health and environmental problem. It is water soluble contaminants and are therefore able to be present in all stages of the water cycle. There have been numerous studies conducted in different countries, since their presence has become an emerging issue in environmental chemistry, because in the research shows that there isn’t a removal despite the different processes used in wastewater treatment plants. This contamination, increases the need to know what is the toxicological effects on aquatic organisms and, consequently, in people. The bacterium Escherichia coli, is a well-studied organism because it is found in the intestines of animals and humans and is therefore in the wastewater. Given the critical situation, was proposed to study the effect on the bacterium E. coli of 4 drugs: Atenolol, Azithromycin, Estradiol and Ibuprofen, to know what his behavior and the effect it could produce the presence of drugs in the removal by oxidation processes. Also, the effects on E. Coli, after being in contact with the drug 1, 3 and 7 days. It was noted that the drugs have effects on the growth or elimination of microorganisms depending on exposure time and the drug concentration. Also it was observed that the microorganisms assimilate lower concentrations of drug better over 24 hours. With all disinfectants study were observed resistances of the bacteria in the presence of the drugs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Proyectar con la naturaleza mediante la Metodología de los Estudios de Impacto Ambiental en ordenaciones residenciales .- Procedimiento de acción en la planificación ambiental .- Las técnicas de agregación de impactos .- Las afecciones de los planes de ordenación sobre el territorio. .- Las medidas preventivas y correctoras de planes .- Evaluación critica de los estudios de impacto ambiental

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En plena implantación de los nuevos planes de estudio de acuerdo al EEES, las universidades se enfrentan a un nuevo modelo educativo basado en competencias: competencias específicas y competencias generales. Las competencias específicas están asociadas a la adquisición y desarrollo de conocimientos de un área en particular, mientras que las competencias generales son transversales al plan de estudios y definen capacidades, habilidades y/o aptitudes que el alumno debe desarrollar para aplicarlas a lo largo de su carrera profesional. El objetivo de este trabajo es proporcionar una guía al docente sobre las posibles mejoras para tratar el mayor número de competencias generales satisfactoriamente. Concretamente, se ha analizado la manera en la que los docentes están promoviendo y desarrollando las competencias generales con el objetivo de detectar carencias, mejoras y necesidades. El análisis se ha realizado sobre el profesorado de la Titulación de Graduado en Ingeniería del Software de la Universidad Politécnica de Madrid.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El abandono académico preocupa en todas las universidades y tiene especial incidencia en los estudios de Ingeniería y Arquitectura. En este trabajo se presentan los resultados de un estudio exhaustivo del abandono desarrollado en el marco de un proyecto transversal de Innovación Educativa, con la participación de más de 80 profesores de la Universidad Politécnica de Madrid (UPM), que pretende analizar los factores más influyentes en el abandono y, en particular, su relación con el absentismo académico. Se toma como población de estudio el colectivo de estudiantes de nuevo ingreso del curso 2010-11 en la UPM, que no se han matriculado en el curso 2011-12 en la misma carrera. Es lo que técnicamente se conoce como pre-abandono y que, en la inmensa mayoría de los casos, se convierte en abandono definitivo de la titulación iniciada.Se han usado dos metodologías: 1. Análisis de la información objetiva procedente de bases de datos de la UPM relativa a variables académicas (nota y opción de acceso, rendimiento académico, ...)y de componente social (sexo, nacionalidad, ...),así como de la información sobre absentismo solicitada a los profesores de las diferentes asignaturas, para la población de estudio. 2. Análisis de la información subjetiva recogida mediante trabajo de campo, a través de encuestas telefónicas(CATI) y entrevistasen profundidad, de los estudiantes en situación de pre-abandono. Entre las conclusiones más relevantes del estudio cabe señalar: En un porcentaje significativo el pre-abandono corresponde a un cambio para continuar estudios del mismo nivel en la misma u otra institución. El absentismo se identifica como predictor del abandono. El factor académico más relacionado con el abandono de una titulación es la nota de acceso. Los alumnos de la población de estudio tienen nota de acceso y rendimiento académico inferiores a los de los alumnos que continúan sus estudios. También presentan mayores índices de absentismo académico y menor participación en las actividades de aprendizaje y evaluación. Respecto a los factores de componente social y personal, se ha observado menor abandono entre las mujeres y mayor abandono entre los estudiantes extranjeros. En cuanto a la integración en la universidad y la relación con los compañeros, se ha detectado que los estudiantes de la población de pre-abandono perciben su integración en la comunidad universitaria como menos efectiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad, las técnicas de crioconservación poseen una importancia creciente para el almacenamiento a largo plazo de germoplasma vegetal. En las dos últimas décadas, estos métodos experimentaron un gran desarrollo y se han elaborado protocolos adecuados a diferentes sistemas vegetales, utilizando diversas estrategias como la vitrificación, la encapsulación-desecación con cuentas de alginato y el método de “droplet”-vitrificación. La presente tesis doctoral tiene como objetivo aumentar el conocimiento sobre los procesos implicados en los distintos pasos de un protocolo de crioconservación, en relación con el estado del agua presente en los tejidos y sus cambios, abordado mediante diversas técnicas biofísicas, principalmente calorimetría diferencial de barrido (DSC) y microscopía electrónica de barrido a baja temperatura (crio-SEM). En un primer estudio sobre estos métodos de crioconservación, se describen las fases de enfriamiento hasta la temperatura del nitrógeno líquido y de calentamiento hasta temperatura ambiente, al final del periodo de almacenamiento, que son críticas para la supervivencia del material crioconservado. Tanto enfriamiento como calentamiento deben ser realizados lo más rápidamente posible pues, aunque los bajos contenidos en agua logrados en etapas previas de los protocolos reducen significativamente las probabilidades de formación de hielo, éstas no son del todo nulas. En ese contexto, se analiza también la influencia de las velocidades de enfriamiento y calentamiento de las soluciones de crioconservación de plantas en sus parámetros termofísicos referente a la vitrificación, en relación su composición y concentración de compuestos. Estas soluciones son empleadas en la mayor parte de los protocolos actualmente utilizados para la crioconservación de material vegetal. Además, se estudia la influencia de otros factores que pueden determinar la estabilidad del material vitrificado, tales como en envejecimiento del vidrio. Se ha llevado a cabo una investigación experimental en el empleo del crio-SEM como una herramienta para visualizar el estado vítreo de las células y tejidos sometidos a los procesos de crioconservación. Se ha comparado con la más conocida técnica de calorimetría diferencial de barrido, obteniéndose resultados muy concordantes y complementarios. Se exploró también por estas técnicas el efecto sobre tejidos vegetales de la adaptación a bajas temperaturas y de la deshidratación inducida por los diferentes tratamientos utilizados en los protocolos. Este estudio permite observar la evolución biofísica de los sistemas en el proceso de crioconservación. Por último, se estudió la aplicación de películas de quitosano en las cuentas de alginato utilizadas en el protocolo de encapsulación. No se observaron cambios significativos en su comportamiento frente a la deshidratación, en sus parámetros calorimétricos y en la superficie de las cuentas. Su aplicación puede conferir propiedades adicionales prometedoras. ABSTRACT Currently, cryopreservation techniques have a growing importance for long term plant germplasm storage. These methods have undergone great progress during the last two decades, and adequate protocols for different plant systems have been developed, making use of diverse strategies, such as vitrification, encapsulation-dehydration with alginate beads and the dropletvitrification method. This PhD thesis has the goal of increasing the knowledge on the processes underlying the different steps of cryopreservation protocols, in relation with the state of water on tissues and its changes, approached through diverse biophysical techniques, especially differential scanning calorimetry (DSC) and low-temperature scanning electron microscopy (cryo-SEM). The processes of cooling to liquid nitrogen temperature and warming to room temperature, at the end of the storage period, critical for the survival of the cryopreserved material, are described in a first study on these cryopreservation methods. Both cooling and warming must be carried out as quickly as possible because, although the low water content achieved during previous protocol steps significantly reduces ice formation probability, it does not completely disappear. Within this context, the influence of plant vitrification solutions cooling and warming rate on their vitrification related thermophysical parameters is also analyzed, in relation to its composition and component concentration. These solutions are used in most of the currently employed plant material cryopreservation protocols. Additionally, the influence of other factors determining the stability of vitrified material is studied, such as glass aging. An experimental research work has been carried out on the use of cryo-SEM as a tool for visualizing the glassy state in cells and tissues, submitted to cryopreservation processes. It has been compared with the better known differential scanning calorimetry technique, and results in good agreement and complementary have been obtained. The effect on plant tissues of adaptation to low temperature and of the dehydration induced by the different treatments used in the protocols was explored also by these techniques. This study allows observation of the system biophysical evolution in the cryopreservation process. Lastly, the potential use of an additional chitosan film over the alginate beads used in encapsulation protocols was examined. No significant changes could be observed in its dehydration and calorimetric behavior, as well as in its surface aspect; its application for conferring additional properties to gel beads is promising.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En España el esfuerzo para la articulación del territorio mediante vías de comunicación y transporte se ha visto incrementado enormemente en los últimos años. En las nuevas carreteras las exigencias de confort y seguridad se reflejan en la menor dependencia que el trazado presenta respecto a la topografía del terreno lo que a su vez implica la multiplicación del número de obras de ingeniería civil como puentes y túneles. Entre éstos últimos, por las mismas razones, se observa un incremento en el número de túneles con longitudes apreciables y por tanto incapaces de ser ventilados con tiro natural. Quiere ello decir que se han multiplicado las instalaciones de ventilación forzada en túneles de carretera, lo que ha llevado a un mayor conocimiento de los sistemas empleados así como al planteamiento de algunas cuestiones sobre las que es preciso profundizar. En España se dispone en este momento de amplia experiencia en instalaciones construidas con diferentes sistemas de ventilación: longitudinal, transversal, etc. Pero debido probablemente al empleo de calzadas separadas para los diferentes sentidos de tráfico, se observa una tendencia creciente al uso del sistema longitudinal con aceleradores lo que, por otra parte, está en consonancia con lo que sucede en el resto del mundo. La ventilación longitudinal tiene ventajas bien conocidas relativas a su flexibilidad y coste, incluso cuando es preciso recurrir a instalaciones intermedias de pozos auxiliares en túneles de gran longitud. Por otro lado presenta algunos problemas relativos tanto a su funcionamiento interior como a su relación con el exterior. Entre éstos últimos cabe citar el impacto que túneles urbanos largos pueden tener en la contaminación ambiental. En efecto, puesto que la ventilación longitudinal arrastra los contaminantes a lo largo del tubo, el vertido en la boca de aguas abajo suele tener una contaminación superior a la permitida en ambientes urbanos. Es curioso observar cómo se ha movido la tendencia en los estudios de ventilación a discutir no ya los requisitos en el interior sino la calidad exigible en el vertido o los procedimientos para mejorarla. En este sentido puede ser necesario recurrir al uso de chimeneas difusoras,o métodos basados en la precipitación electrostática donde se están proporcionando soluciones ingeniosas y prometedoras. Un problema "exterior" de interés que se presenta cuando se dispone de poco espacio para separar las bocas es la recirculación entre túneles gemelos con diferentes sentidos de tráfico y ventilación. Así puede suceder que los vertidos contaminados procedentes de la salida de un tubo sean aspirados por el gemelo en lugar del aire limpio que se pretendía. En situaciones normales es un fenómeno raro pues el vertido se realiza en forma de chorro y la absorción mediante un sumidero por lo que el cortocircuito suele ser pequeño. La situación se complica cuando la salida se realiza entre taludes altos o cuando sopla viento lateral o frontal que favorece la mezcla. En muchos casos se recurre a muros separados que son muy efectivos incluso con dimensiones moderadas. En este artículo los temas tratados se refieren por el contrario a problemas relacionados con el flujo del aire en el interior del túnel. Como es sabido los proyectos de ventilación en túneles deben contemplar al menos dos situaciones:el funcionamiento en servicio y la respuesta en emergencias, entre las que la más típica es la de incendio. Mientras que en la primera priman los requisitos de confort, en la segunda se trata de cuantificar la seguridad y, en especial, de establecer las estrategias que permitan en primer lugar salvar vidas y además minimizar el deterioro de las instalaciones. Generalmente los índices que se manejan para el confort están relacionados con el contenido en monóxido de carbono y con la opacidad del aire. En ambos casos la ventilación forzada tiene como objetivo introducir la cantidad de aire limpio necesario para reducir las proporciones a niveles admisibles por los usuarios. Son requisitos que se refieren a escenarios con alta probabilidad de ocurrencia y para las que la instalación debe disponer de márgenes de seguridad holgados. Por otro lado la situación accidental se presenta con una frecuencia mucho más baja y los impulsores deben proyectarse para que sean capaces de dar los picos precisos para responder a la estrategia de ventilación que se haya planteado así como para funcionar en ambientes muy agresivos. Es clásica la cita al fuego en el túnel Holland (N. Y) donde la capa de aire fresco a ras de suelo permitió la huida de los pasajeros atrapados y la llegada de equipos de rescate. El tema es de tal importancia que se ha incrementado el número de pruebas a escala real con objeto de familiarizar a los equipos de explotación y extinción con estas situaciones excepcionales a la par que para observar y cuantificar los problemas reales. En los túneles de El Padrún, la Demarcación de Carreteras del Estado de Asturias (MOPTMA) ha invertido un gran esfuerzo en los estudios de seguridad tanto en los aspectos estructurales como funcionales. Se han seguido en ambos casos los pasos tradicionales para el establecimiento de la auténtica experiencia ingenieril es decir la observación de fenómenos, su medición y su interpretación y síntesis mediante modelos abstractos. En el tema concreto de la seguridad frente a situaciones accidentales se han realizado experimentos con un incendio real y con humos fríos y calientes. En este artículo se presentan algunos de los modelos numéricos que, basándose en las enormes posibilidades que ofrecen los medios informáticos actuales, se han construido para identificar fenómenos observados en los experimentos y para estudiar cuestiones que se plantean durante la explotación o el proyecto y para las que todavía no se dispone de un cuerpo de doctrina bien establecido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es interesante e importante clarificar las relaciones de la informática con la cultura. Al mismo tiempo, es difícil porque ambas presentan -naturalmente más la segunda que la primera una vasta geografía de territorios diversos, mal deslindados y movedizos. Para ser prácticos, hemos elegido uno de éstos, de alcance general en cuanto a los fines del Simposio: 1a percepción, el análisis y diseño social de la informática •

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fibra dietética representa la fracción indigestible de los ingredientes del pienso por lo que diluye el contenido en nutrientes del mismo (Rougière y Carré, 2010). Además, un aumento en el nivel de fibra del pienso puede reducir el consumo voluntario (Sklan et al., 2003), alterar el perfil de la flora gastrointestinal y aumentar la incidencia de procesos entéricos (Janssen and Carré, 1985). Sin embargo, estudios recientes muestran que la inclusión de ciertas fuentes de fibras a niveles adecuados podrían mejorar los rendimientos productivos y reducir la incidencia de problemas digestivos en aves (Mateos, 2012). En broilers, la inclusión de fibra adicional en el pienso mejoró la fisiología digestiva, aumentando el tamaño de la molleja, reduciendo el pH de la digesta de este órgano (Sacranie et al., 2012) y mejorando de los rendimientos productivos (González-Alvarado et al., 2010). Fuentes de fibra insoluble tales como la cascarilla de avena (CAV), la cascarilla de girasol (CGI) y la paja de cereales (PCE) podrían mejorar la fisiología del tracto gastrointestinal (TGI) y la digestibilidad de ciertos nutrientes cuando se incluyen en el pienso en cantidades moderadas (Hetland et al., 2003). Por otro lado, fuentes de fibra soluble, tal como la pulpa de remolacha (PRE), incrementan la viscosidad intestinal, lo que podría reducir el consumo de pienso (Jiménez-Moreno et al., 2010). Los autores no han encontrado estudio alguno sobre los efectos de la inclusión de fibra adicional en el pienso sobre los rendimientos productivos de pollitas comerciales. El objetivo del presente trabajo fue estudiar el efecto de incluir diversas fuentes de fibra a diferentes niveles en el pienso sobre los rendimientos productivos de pollitas de 1 a 35 d de edad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ante la preocupación generalizada de la sociedad acerca de las carencias de los jóvenes en cuanto a la expresión escrita, el presente artículo tiene como objetivo analizar si esta competencia se desarrolla y se evalúa en la Universidad. La comunidad académica no puede permanecer ajena a este problema, por lo que es importante que incluya dentro de sus planes de estudio la mejora de esta competencia. El desarrollo de la expresión escrita se incluye entre las competencias generales instrumentales para el aprendizaje y la formación. Se considera, por tanto, una competencia necesaria para cualquier tipo de estudio y cualquier perfil profesional. En particular, en los estudios de ADE, la adquisición de la expresión escrita no se circunscribe a ninguna asignatura en concreto, sino que puede desarrollarse en varias de ellas a lo largo de la titulación. No obstante, el Trabajo de Fin de Grado es una de las asignaturas en la que mejor puede enmarcarse la consecución de esta habilidad. Por este motivo, se realiza un análisis sobre el diseño, la organización, el contenido y la evaluación del Trabajo de Fin de Grado en todas las universidades de la Comunidad de Madrid, tanto públicas como privadas, en las que se imparte el Grado en Administración y Dirección de Empresas. El estudio se ha elaborado a partir de la información de los planes de estudio y de las guías docentes de la asignatura, disponibles en las páginas web de las universidades.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las conferencias presentadas durante la Jornada Técnica sobre Avances en investigación aplicada en seguridad hidráulica de presas organizada por el Centro de Estudios Hidrográficos del CEDEX y la Universidad Politécnica de Madrid el mes de junio de 2013 versan sobre la mejora de la seguridad hidráulica de las presas, una materia de especial importancia en nuestro país (habida cuenta del elevado número de infraestructuras de regulación en servicio y de su antigüedad media) y constituye una tarea en la que tanto el CEDEX como la Universidad Politécnica de Madrid han trabajado activamente en los últimos años. El Centro Internacional de Métodos Numéricos en Ingeniería (CIMNE) es un centro de investigación dependiente del Gobierno de Cataluña y de la Universidad Politécnica de Cataluña creado en 1987. Su principal actividad es el desarrollo y aplicación de métodos numéricos innovadores para resolver problemas prácticos en diversos campos de la ingeniería, y se desarrolla fundamentalmente en el marco de proyectos de investigación nacionales e internacionales. En los últimos años el centro ha participado en diversos proyectos relacionados con la seguridad de presas, fundamentalmente hidráulica, pero también estructural, en cooperación con diversas empresas y organismos públicos de investigación como el CEDEX y la UPM. La presente comunicación describe brevemente los objetivos principales de los mencionados proyectos, haciendo hincapié en cómo la modelación numérica ha contribuido a alcanzarlos.