1000 resultados para Daño del ADN
Resumo:
Las respuestas que se generan a partir de cuestionamientos del origen del hombre nos permitirán especular hacia dónde evolucionará como especie. Los grandes saltos evolutivos que diferencian a los primates humanos de los no humanos, se podrían describir entre otras características por una eficiente memoria para el uso de herramientas, la dominancia para el uso de la mano junto al desarrollo de la oposición del pulgar y el lenguaje. Se ha descrito un gen, el HSR que expresa para la dominancia para el uso de la mano derecha, habilidades cognitivas relacionadas con el lenguaje y asimetría cerebral en humanos. Este es un gen imprintado, es decir, que se hereda su expresión según el origen parental y cuya expresión está regulada por factores epigenéticos. Estos factores, modifican la expresión del gen sin afectar la estructura primaria del ADN. Se ha estudiado la expresión fenotípica del gen HSR en una población de niños escolarizados de La Rioja, dividida en dos regiones (Región 1 y Región 2). Los resultados obtenidos, que muestran una alteración de las proporciones fenotípicas del gen en la Región 2, apoyan fuertemente la posibilidad de que un factor ambiental estaría condicionando el epigenotipo del gen HSR. Se piensa que el estudio de estos mecanismos regulatorios en estos genes recientemente adquiridos por la evolución y blanco de funciones también recientemente adquiridas, podría dar información de hacia dónde la evolución del hombre podría proyectarse en el futuro.
Resumo:
La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.
Resumo:
Tras el devastador terremoto del 12 de enero de 2010 en Puerto Príncipe, Haití, las autoridades locales, numerosas ONGs y organismos nacionales e internacionales están trabajando en el desarrollo de estrategias para minimizar el elevado riesgo sísmico existente en el país. Para ello es necesario, en primer lugar, estimar dicho riesgo asociado a eventuales terremotos futuros que puedan producirse, evaluando el grado de pérdidas que podrían generar, para dimensionar la catástrofe y actuar en consecuencia, tanto en lo referente a medidas preventivas como a adopción de planes de emergencia. En ese sentido, este Trabajo Fin de Master aporta un análisis detallado del riesgo sísmico asociado a un futuro terremoto que podría producirse con probabilidad razonable, causando importantes daños en Puerto Príncipe. Se propone para ello una metodología de cálculo del riesgo adaptada a los condicionantes de la zona, con modelos calibrados empleando datos del sismo de 2010. Se ha desarrollado en el marco del proyecto de cooperación Sismo-Haití, financiado por la Universidad Politécnica de Madrid, que comenzó diez meses después del terremoto de 2010 como respuesta a una petición de ayuda del gobierno haitiano. El cálculo del riesgo requiere la consideración de dos inputs: la amenaza sísmica o movimiento esperado por el escenario definido (sismo de cierta magnitud y localización) y los elementos expuestos a esta amenaza (una clasificación del parque inmobiliario en diferentes tipologías constructivas, así como su vulnerabilidad). La vulnerabilidad de estas tipologías se describe por medio de funciones de daño: espectros de capacidad, que representan su comportamiento ante las fuerzas horizontales motivadas por los sismos, y curvas de fragilidad, que representan la probabilidad de que las estructuras sufran daños al alcanzar el máximo desplazamiento horizontal entre plantas debido a la mencionada fuerza horizontal. La metodología que se propone especifica determinadas pautas y criterios para estimar el movimiento, asignar la vulnerabilidad y evaluar el daño, cubriendo los tres estados del proceso. Por una parte, se consideran diferentes modelos de movimiento fuerte incluyendo el efecto local, y se identifican los que mejor ajustan a las observaciones de 2010. Por otra se clasifica el parque inmobiliario en diferentes tipologías constructivas, en base a la información extraída en una campaña de campo y utilizando además una base de datos aportada por el Ministerio de Obras Públicas de Haití. Ésta contiene información relevante de todos los edificios de la ciudad, resultando un total de 6 tipologías. Finalmente, para la estimación del daño se aplica el método capacidad-demanda implementado en el programa SELENA (Molina et al., 2010). En primer lugar, utilizado los datos de daño del terremoto de 2010, se ha calibrado el modelo propuesto de cálculo de riesgo sísmico: cuatro modelos de movimiento fuerte, tres modelos de tipo de suelo y un conjunto de funciones de daño. Finalmente, con el modelo calibrado, se ha simulado un escenario sísmico determinista correspondiente a un posible terremoto con epicentro próximo a Puerto Príncipe. Los resultados muestran que los daños estructurales serán considerables y podrán llevar a pérdidas económicas y humanas que causen un gran impacto en el país, lo que pone de manifiesto la alta vulnerabilidad estructural existente. Este resultado será facilitado a las autoridades locales, constituyendo una base sólida para toma de decisiones y adopción de políticas de prevención y mitigación del riesgo. Se recomienda dirigir esfuerzos hacia la reducción de la vulnerabilidad estructural - mediante refuerzo de edificios vulnerables y adopción de una normativa sismorresistente- y hacia el desarrollo de planes de emergencia. Abstract After the devastating 12 January 2010 earthquake that hit the city of Port-au-Prince, Haiti, strategies to minimize the high seismic risk are being developed by local authorities, NGOs, and national and international institutions. Two important tasks to reach this objective are, on the one hand, the evaluation of the seismic risk associated to possible future earthquakes in order to know the dimensions of the catastrophe; on the other hand, the design of preventive measures and emergency plans to minimize the consequences of such events. In this sense, this Master Thesis provides a detailed estimation of the damage that a possible future earthquake will cause in Port-au-Prince. A methodology to calculate the seismic risk is proposed, adapted to the study area conditions. This methodology has been calibrated using data from the 2010 earthquake. It has been conducted in the frame of the Sismo-Haiti cooperative project, supported by the Technical University of Madrid, which started ten months after the 2010 earthquake as an answer to an aid call of the Haitian government. The seismic risk calculation requires two inputs: the seismic hazard (expected ground motion due to a scenario earthquake given by magnitude and location) and the elements exposed to the hazard (classification of the building stock into building typologies, as well as their vulnerability). This vulnerability is described through the damage functions: capacity curves, which represent the structure performance against the horizontal forces caused by the seisms; and fragility curves, which represent the probability of damage as the structure reaches the maximum spectral displacement due to the horizontal force. The proposed methodology specifies certain guidelines and criteria to estimate the ground motion, assign the vulnerability, and evaluate the damage, covering the whole process. Firstly, different ground motion prediction equations including the local effect are considered, and the ones that have the best correlation with the observations of the 2010 earthquake, are identified. Secondly, the classification of building typologies is made by using the information collected during a field campaign, as well as a data base provided by the Ministry of Public Works of Haiti. This data base contains relevant information about all the buildings in the city, leading to a total of 6 different typologies. Finally, the damage is estimated using the capacity-spectrum method as implemented in the software SELENA (Molina et al., 2010). Data about the damage caused by the 2010 earthquake have been used to calibrate the proposed calculation model: different choices of ground motion relationships, soil models, and damage functions. Then, with the calibrated model, a deterministic scenario corresponding to an epicenter close to Port-au-Prince has been simulated. The results show high structural damage, and therefore, they point out the high structural vulnerability in the city. Besides, the economic and human losses associated to the damage would cause a great impact in the country. This result will be provided to the Haitian Government, constituting a scientific base for decision making and for the adoption of measures to prevent and mitigate the seismic risk. It is highly recommended to drive efforts towards the quality control of the new buildings -through reinforcement and construction according to a seismic code- and the development of emergency planning.
Resumo:
Monilinia spp. (M. laxa, M. fructigena y M. fructicola) causa marchitez en brotes y flores, chancros en ramas y podredumbre de la fruta de hueso provocando pérdidas económicas importantes en años con climatología favorable para el desarrollo de la enfermedad, particularmente en variedades tardías de melocotonero y nectarino. En estos huéspedes en España, hasta el momento, la especie predominante es M. laxa y, en menor proporción, M. fructigena. La reciente introducción en Europa de la especie de cuarentena M. fructicola hace necesaria una detección e identificación rápida de cada una de las especies. Además, hay diversos aspectos de la etiología y epidemiología de la enfermedad que no se conocen en las condiciones de cultivo españolas. En un primer objetivo de esta Tesis se ha abordado la detección e identificación de las especies de Monilinia spp. causantes de podredumbre parda. El estudio de las bases epidemiológicas para el control de la enfermedad constituye el fin del segundo objetivo. Para la detección del género Monilinia en material vegetal por PCR, diferenciándolo de otros hongos presentes en la superficie del melocotonero, se diseñaron una pareja de cebadores siguiendo un análisis del ADN ribosomal. La discriminación entre especies de Monilinia se consiguió utilizando marcadores SCAR (región amplificada de secuencia caracterizada), obtenidos después de un estudio de marcadores polimórficos de ADN amplificados al azar (RAPDs). También fue diseñado un control interno de amplificación (CI) basado en la utilización de un plásmido con secuencias de los cebadores diferenciadores del género, para ser utilizado en el protocolo de diagnóstico de la podredumbre parda con el fin de reconocer falsos negativos debidos a la inhibición de PCR por componentes celulares del material vegetal. Se disponía de un kit comercial que permitía distinguir Monilinia de otros géneros y M. fructicola del resto de especies mediante anticuerpos monoclonales utilizando la técnica DAS-ELISA. En esta Tesis se probaron diferentes fuentes de material como micelio ó conidias procedentes de cultivos en APD, o el micelio de la superficie de frutas o de momias frescas, como formas de antígeno. Los resultados obtenidos con ELISA se compararon con la identificación por métodos morfológico-culturales y por PCR con los cebadores desarrollados en esta Tesis. Los resultados demostraron la posibilidad de una detección temprana en frutas frescas por este método, realzando las posibilidades de una diagnosis temprana para una prevención más eficaz de M. fructicola en fruta de hueso. El estudio epidemiológico de la enfermedad comenzó con la determinación de las principales fuentes de inóculo primario y su importancia relativa en melocotoneros y nectarinos del valle del Ebro. Para ello se muestrearon 9 huertos durante los años 2003 a 2005 recogiendo todas las momias, frutos abortados, gomas, chancros, y brotes necróticos en los árboles. También se recogieron brotes aparentemente sanos y muestras de material vegetal situados en el suelo. En estas muestras se determinó la presencia de Monilinia spp. Los resultados mostraron que la fuente principal de inóculo son las momias que se quedan en los árboles en las que la supervivencia del hongo tras el invierno es muy alta. También son fuentes de inóculo las momias del suelo y los brotes necróticos. De aquí se deriva que una recomendación importante para los agricultores es que deben eliminar este material de los huertos. Un aspecto no estudiado en melocotonero o nectarino en España es la posible relación que puede darse entre la incidencia de infecciones latentes en los frutos inmaduros a lo largo del cultivo y la incidencia de podredumbre en los frutos en el momento de la recolección y en postcosecha. Esta relación se había observado previamente en otros frutales de hueso infectados con M. fructicola en diversos países del mundo. Para estudiar esta relación se realizaron ensayos en cinco huertos comerciales de melocotonero y nectarino situados en el Valle del Ebro en cuatro estados fenológicos durante los años 2000-2002. No se observaron infecciones latentes en botón rosa, dándose la máxima incidencia en precosecha, aunque en algunos huertos se daba otro pico en el endurecimiento del embrión. La especie prevaleciente fue M. laxa. Se obtuvo una correlación positiva significativa entre la incidencia de infecciones latentes y la incidencia de podredumbre en postcosecha. Se desarrolló también un modelo de predicción de las infecciones latentes en función de la temperatura (T) y el periodo de humectación (W). Este modelo indicaba que T y W explicaban el 83% de la variación en la incidencia de infecciones latentes causadas por Monilinia spp. Por debajo de 8ºC no se predecían latentes, necesitándose más de 22h de W para predecir la ocurrencia de latentes con T = 8ºC, mientras que solo se necesitaban 5h de W a 25ºC. Se hicieron también ensayos en condiciones controladas para determinar la relación entre la incidencia de las infecciones latentes, las condiciones ambientales (T y W), la concentración de inóculo del patógeno (I) y el estado de desarrollo del huésped (S) y para validar el modelo de predicción desarrollado con los experimentos de campo. Estos ensayos se llevaron cabo con flores y frutos de nectarino procedentes de un huerto comercial en seis estados fenológicos en los años 2004 y 2005, demostrándose que la incidencia de podredumbre en postcosecha y de infecciones latentes estaba afectada por T, W, I y S. En los frutos se producían infecciones latentes cuando la T no era adecuada para el desarrollo de podredumbre. Una vez desarrollado el embrión eran necesarias más de 4-5h de W al día y un inóculo superior a 104 conidias ml-1 para que se desarrollase o podredumbre o infección latente. La ecuación del modelo obtenido con los datos de campo era capaz de predecir los datos observados en estos experimentos. Para evaluar el efecto del inóculo de Monilinia spp. en la incidencia de infecciones latentes y de podredumbre de frutos en postcosecha se hicieron 11 experimentos en huertos comerciales de melocotonero y nectarino del Valle del Ebro durante 2002 a 2005. Se observó una correlación positiva entre los números de conidias de Monilinia spp. en la superficie de los frutos y la incidencia de infecciones latentes De los estudios anteriores se deducen otras dos recomendaciones importantes para los agricultores: las estrategias de control deben tener en cuenta las infecciones latentes y estimar el riesgo potencial de las mismas basándose en la T y W. Deben tener también en cuenta la concentración de esporas de Monilinia spp. en la superficie de los frutos para disminuir el riesgo de podredumbre parda. El conocimiento de la estructura poblacional de los patógenos sienta las bases para establecer métodos más eficaces de manejo de las enfermedades. Por ello en esta Tesis se ha estudiado el grado de diversidad genética entre distintas poblaciones de M. laxa en diferentes localidades españolas utilizando 144 marcadores RAPDs (59 polimórficos y 85 monomórficos) y 21 aislados. El análisis de la estructura de la población reveló que la diversidad genética dentro de las subpoblaciones (huertos) (HS) representaba el 97% de la diversidad genética (HT), mientras que la diversidad genética entre subpoblaciones (DST) sólo representaba un 3% del total de esta diversidad. La magnitud relativa de la diferenciación génica entre subpoblaciones (GST) alcanzaba 0,032 y el número estimado de migrantes por generación (Nm) fue de 15,1. Los resultados obtenidos en los dendrogramas estaban de acuerdo con el análisis de diversidad génica. Las agrupaciones obtenidas eran independientes del huerto de procedencia, año o huésped. En la Tesis se discute la importancia relativa de las diferentes fuentes evolutivas en las poblaciones de M. laxa. Finalmente se realizó un muestreo en distintos huertos de melocotonero y nectarino del Valle del Ebro para determinar la existencia o no de aislados resistentes a los fungicidas del grupo de los benzimidazoles y las dicarboximidas, fungicidas utilizados habitualmente para el control de la podredumbre parda y con alto riesgo de desarrollar resistencia en las poblaciones patógenas. El análisis de 114 aislados de M. laxa con los fungicidas Benomilo (bencimidazol) (1Bg m.a ml-1), e Iprodiona (dicarboximida) (5Bg m.a ml-1), mostró que ninguno era resistente en las dosis ensayadas. Monilinia spp. (M. laxa, M. fructigena and M. fructicola) cause bud and flower wilt, canker in branches and stone fruit rot giving rise important economic losses in years with appropriate environmental conditions, it is particularly important in late varieties of peach and nectarine. Right now, M. laxa is the major species for peach and nectarine in Spain followed by M. fructigena, in a smaller proportion. The recent introduction of the quarantine organism M. fructicola in Europe makes detection and identification of each one of the species necessary. In addition, there are different aspects of disease etiology and epidemiology that are not well known in Spain conditions. The first goal of this Thesis was the detection and identification of Monilinia spp. causing brown rot. Study of the epidemiology basis for disease control was the second objective. A pair of primers for PCR detection was designed based on the ribosomal DNA sequence in order to detect Monilinia spp. in plant material and to discriminate it from other fungi colonizing peach tree surface. Discrimination among Monilinia spp. was successful by SCAR markers (Sequence Characterized Amplified Region), obtained after a random amplified polymorphic DNA markers (RAPDs) study. An internal control for the PCR (CI) based on the use of a mimic plasmid designed on the primers specific for Monilinia was constructed to be used in diagnosis protocol for brown rot in order to avoid false negatives due to the inhibition of PCR as consequence of remained plant material. A commercial kit based on DAS-ELISA and monoclonals antibodies was successfully tested to distinguish Monilinia from other fungus genera and M. fructicola from other Monilinia species. Different materials such as micelium or conidias from APD cultures, or micelium from fresh fruit surfaces or mummies were tested in this Thesis, as antigens. Results obtained by ELISA were compared to classical identification by morphologic methods and PCR with the primers developed in this Thesis. Results demonstrated the possibility of an early detection in fresh fruits by this method for a more effective prevention of M. fructicola in stone fruit. The epidemiology study of the disease started with the determination of the main sources of primary inoculum and its relative importance in peach trees and nectarines in the Ebro valley. Nine orchards were evaluated during years 2003 to 2005 collecting all mummies, aborted fruits, rubbers, cankers, and necrotic buds from the trees. Apparently healthy buds and plant material located in the ground were also collected. In these samples presence of Monilinia spp. was determined. Results showed that the main inoculum sources are mummies that stay in the trees and where fungus survival after the winter is very high. Mummies on the ground and the necrotics buds are also sources of inoculum. As consequence of this an important recommendation for the growers is the removal of this material of the orchards. An important issue not well studied in peach or nectarine in Spain is the possible relationship between the incidence of latent infections in the immature fruits and the incidence of fruit rot at harvesting and postharvesting. This relationship had been previously shown in other stone fruit trees infected with M. fructicola in different countries over the world. In order to study this relationship experiments were run in five commercial peach and nectarine orchards located in the Ebro Valley in four phenologic states from 2000 to 2002. Latent infections were not observed in pink button, the maxima incidence arise in preharvest, although in some orchards another increase occurred in the embryo hardening. The most prevalence species was M. laxa. A significant positive correlation between the incidence of latent infections and the incidence of rot in postharvest was obtained. A prediction model of the latent infections based on the temperature (T) and the wetness duration (W) was also developed. This model showed that T and W explained 83% of the variation in latent infection incidence caused by Monilinia spp. Below 8ºC latent infection was not predicted, more than 22h of W with T = 8ºC were needed to predict latent infection occurrence of, whereas at 25ºC just 5h of W were enough. Tests under controlled conditions were also made to determine the relationship among latent infections incidence, environmental conditions (T and W), inoculum concentration of the pathogen (I) and development state of the host (S) to validate the prediction model developed on the field experiments. These tests were made with flowers and fruits of nectarine coming from a commercial orchard, in six phenologic states in 2004 and 2005, showing that incidence of rot in postharvest and latent infections were affected by T, W, I and S. In fruits latent infections took place when the T was not suitable for rot development. Once developed the embryo, more than 4-5h of W per day and higher inoculums (104 conidia ml-1) were necessary for rot or latent infection development. The equation of the model obtained with the field data was able to predict the data observed in these experiments. In order to evaluate the effect of inoculum of Monilinia spp. in the incidence of latent infections and of rot of fruits in postharvest, 11 experiments in commercial orchards of peach and nectarine of the Ebro Valley were performed from 2002 to 2005. A positive correlation between the conidial numbers of Monilinia spp. in the surface of the fruits and the incidence of latent infections was observed. Based on those studies other two important recommendations for the agriculturists are deduced: control strategies must consider the latent infections and potential risk based on the T and W. Spores concentration of Monilinia spp. in the surface of fruits must be also taken in concern to reduce the brown rot risk. The knowledge of the population structure of the pathogens determines the bases to establish more effective methods of diseases handling. For that reason in this Thesis the degree of genetic diversity among different M. laxa populations has been studied in different Spanish locations using 144 RAPDs markers (59 polymorphic and 85 monomorphics) on 21 fungal isolates. The analysis of the structure of the population revealed that the genetic diversity within the subpopulations (orchards) (HS) represented 97% of the genetic diversity (HT), whereas the genetic diversity between subpopulations (DST) only represented a 3% of the total of this diversity. The relative magnitude of the genic differentiation between subpopulations (GST) reached 0.032 and the considered number of migrantes by generation (Nm) was of 15.1. The results obtained in dendrograms were in agreement with the analysis of genic diversity. The obtained groupings were independent of the orchard of origin, year or host. In the Thesis the relative importance of the different evolutionary sources in the populations from M. laxa is discussed. Finally a sampling of resistant isolates in different orchards from peach and nectarine of Ebro Valley was made to determine the existence of fungicide resistance of the group of benzimidazoles and the dicarboximidas, fungicides used habitually for the control of rot brown and with high risk of resistance developing in the pathogenic populations. The analysis of 114 isolated ones of M. laxa with the fungicides Benomilo (bencimidazol) (1Bg m.a ml-1), and Iprodiona (dicarboximida) (5Bg m.a ml-1), showed no resistant in the doses evaluated.
Resumo:
En esta tesis se presenta una metodología para la caracterización del oleaje, dentro del marco de las nuevas Recomendaciones para Obras Marítimas (ROM 0.0.-00 y ROM 1.0-09), por ser una de las principales acciones que afectan a la estabilidad de las estructuras marítimas. Debido al carácter aleatorio intrínsecamente multivariado de la acción considerada, las tormentas, su caracterización paramétrica se realiza en términos de funciones cópula uniparamétricas. Las variables consideradas son altura de ola significante del pico de la tormenta, el periodo medio asociado y la magnitud, o número de olas, de todo el ciclo de solicitación. Para establecer un patrón teórico de evolución de la tormenta que permita extrapolar las muestras fuera de la región con datos se analizan los modelos teóricos existentes, comprobándose que no reproducen adecuadamente las tormentas constituidas por estados de mar con un peso importante de oleaje swell. Para evitar esta limitación se proponen cuatro modelos teóricos de evolución de tormentas con distintas formas geométricas. El análisis de los modelos existentes y los propuestos pone de relieve que el Modelo Magnitud Equivalente de Tormenta (EMS= Equivalent Magnitude Storm) con la forma triangular es el que mejor adapta las tormentas constituidas por estados de mar típicos del viento. Para tormentas con un mayor grado de desarrollo, el modelo teórico de tormenta EMS con la forma trapezoidal es el adecuado. De las aproximaciones propuestas para establecer el periodo medio de los sucesivos estados de mar del ciclo de solicitación. la propuesta por Martín Soldevilla et al., (2009) es la más versátil y , en general , mejor reproduce la evolución de todo tipo de tormentas. La caracterización de las tormentas se complementa con la altura de ola máxima. Debido a la mayor disponibilidad y longitud temporal de los datos sintéticos frente a las registros, la práctica totalidad de los análisis de extremos se realizan con tormentas sintéticas en las que la distribución de olas individuales es desconocida. Para evitar esta limitación se utilizan modelos teóricos de distribución de olas acordes a las características de cada uno de los estados de mar que conforman la tormenta sintética. Para establecer dichas características se utiliza la curtosis y en función de su valor la altura de ola máxima se determina asumiendo una determinada distribución de olas. Para estados de mar lineales la distribución de olas individuales de Rayleigh es la considerada. Para condiciones no lineales de gran ancho de banda el modelo de distribución de olas propuesto por Dawson, (2004) es el utilizado y si es de banda estrecha las predicciones de (Boccotti, (1989), Boccotti et al., (2013)) se compara con las resultantes del modelo de Dawson. La caracterización de la evolución de las tormentas en términos multivariados es aplicada al estudio de la progresión del daño del manto principal de diques en talud, y al rebase de las olas. Ambos aspectos cubren el segundo objetivo de la tesis en el que se propone una nueva formulación para el dimensionamiento de mantos constituidos por bloques cúbicos de hormigón. Para el desarrollo de esta nueva formulación se han utilizado los resultados recogidos en los estudios de estabilidad del manto principal de diques talud realizados en modelo físico a escala reducida en el Centro de Estudios de Puertos y Costas (CEDEX) desde la década de los 80 empleando, en su mayoría, bloques paralelepípedos cúbicos de hormigón. Por este motivo y porque los últimos diques construidos en la costa Española utilizan este tipo de pieza, es por lo que la formulación planteada se centra en este tipo de pieza. Después de un primer análisis de las fórmulas de cálculo y de evolución existentes, se llega a la conclusión de que es necesario realizar un esfuerzo de investigación en este campo, así como ensayos en laboratorio y recogida de datos in-situ con base a desarrollar fórmulas de evolución de daño para mantos constituidos por piezas diferentes a la escollera, que tenga en cuenta las principales variables que condiciona su estabilidad. En esta parte de la tesis se propone un método de análisis de evolución de daño, que incluye el criterio de inicio de avería, adecuada para diques en talud constituidos por bloque cúbicos de hormigón y que considera la incidencia oblicua, el daño acumulado y el rebase. This thesis proposes a methodology to estimate sea waves, one of the main actions affecting the maritime structures stability, complying with (ROM 0.0.-00 & ROM 1.0-09.Due to the multivariate behavior of sea storms, the characterization of the structures of sea storms is done using copula function. The analyzed variables are the significant height wave, mean period and magnitude or number of waves during the storm history. The storm evolution in terms of the significant height wave and the mean period is also studied in other to analyze the progressive failure modes. The existing models of evolution are studied, verifying that these approximations do not adjust accurately for developed waves. To overcome this disadvantage, four evolution models are proposed, with some geometrical shapes associated to fit any development degree. The proposed Equivalent Magnitude Storm model, EMS, generally obtains the best results for any kind of storm (predominant sea, swell or both). The triangle is recommended for typical sea storms whereas the trapezoid shape is much more appropriate for more developed storm conditions.The Martín Soldevilla et al., (2009) approach to estimate the mean period is better than others approaches used.The storm characterization is completed with the maximum wave height of the whole storm history. Due to synthetic historical waves databases are more accessible and longer than recorded database, the extreme analyses are done with synthetic data. For this reason the individual waves’ distribution is not known. For that limitation to be avoided, and depending on the characteristics of every sea states, one theoretical model of waves is choose and used. The kurtosis parameter is used to distinguish between linear and nonlinear sea states. The Rayleigh model is used for the linear sea states. For the nonlinear sea states, Dawson, (2004) approach is used for non-narrow bandwidth storms, comparing the results with the Boccotti, (1989), Boccotti et al., (2013) approach, with is used for narrow bandwidth storms. The multivariate and storm evolution characterization is used to analyze of stone armour damage progression and wave overtopping discharge. Both aspects are included in the second part of the thesis, with a new formula is proposed to design cubes armour layer. The results the stability studies of armour layer, done in the Centre for Harbours and Coastal Studies (CEDEX) laboratory are used for defining a new stability formula. For this reason and because the last biggest breakwater built in Spain using the cube, the damage progression is analyze for this kind of concrete block. Before to analyze the existing formulae, it is concluded that it is necessary more investigation, more tests in laboratory and data gathering in situ to define damage evolution formulae to armour of other kind of pieces and that takes to account the principal variables. This thesis proposed a method to calculate the damage progression including oblique waves, accumulated damage, and overtopping effect. The method also takes account the beginning of the movement of the blocks.
Resumo:
A menudo los científicos secuencian el ADN de un gran número de personas con el objetivo de determinar qué genes se asocian con determinadas enfermedades. Esto permite meóon del genoma humano. El precio de un perfil genómico completo se ha posicionado por debajo de los 200 dólares y este servicio lo ofrecen muchas compañías, la mayor parte localizadas en EEUU. Como consecuencia, en unos pocos a~nos la mayoría de las personas procedentes de los países desarrollados tendrán los medios para tener su ADN secuenciado. Alrededor del 0.5% del ADN de cada persona (que corresponde a varios millones de nucleótidos) es diferente del genoma de referencia debido a variaciones genéticas. Así que el genoma contiene información altamente sensible y personal y representa la identidad biológica óon sobre el entorno o estilo de vida de uno (a menudo facilmente obtenible de las redes sociales), sería posible inferir el fenotipo del individuo. Multiples GWAS (Genome Wide Association Studies) realizados en los últimos a~nos muestran que la susceptibilidad de un paciente a tener una enfermedad en particular, como el Alzheimer, cáncer o esquizofrenia, puede ser predicha parcialmente a partir de conjuntos de sus SNP (Single Nucleotide Polimorphism). Estos resultados pueden ser usados para medicina genómica personalizada (facilitando los tratamientos preventivos y diagnósticos), tests de paternidad genéticos y tests de compatibilidad genética para averiguar a qué enfermedades pueden ser susceptibles los descendientes. Estos son algunos de los beneficios que podemos obtener usando la información genética, pero si esta información no es protegida puede ser usada para investigaciones criminales y por compañías aseguradoras. Este hecho podría llevar a discriminaci ón genética. Por lo que podemos concluir que la privacidad genómica es fundamental por el hecho de que contiene información sobre nuestra herencia étnica, nuestra predisposición a múltiples condiciones físicas y mentales, al igual que otras características fenotópicas, ancestros, hermanos y progenitores, pues los genomas de cualquier par de individuos relacionados son idénticos al 99.9%, contrastando con el 99.5% de dos personas aleatorias. La legislación actual no proporciona suficiente información técnica sobre como almacenar y procesar de forma segura los genomas digitalizados, por lo tanto, es necesaria una legislación mas restrictiva ---ABSTRACT---Scientists typically sequence DNA from large numbers of people in order to determine genes associated with particular diseases. This allows to improve the modern healthcare and to provide a better understanding of the human genome. The price of a complete genome profile has plummeted below $200 and this service is ofered by a number of companies, most of them located in the USA. Therefore, in a few years, most individuals in developed countries will have the means of having their genomes sequenced. Around 0.5% of each person's DNA (which corresponds to several millions of nucleotides) is diferent from the reference genome, owing to genetic variations. Thus, the genome contains highly personal and sensitive information, and it represents our ultimate biological identity. By combining genomic data with information about one's environment or lifestyle (often easily obtainable from social networks), could make it possible to infer the individual's phenotype. Multiple Genome Wide Association Studies (GWAS) performed in recent years have shown that a patient's susceptibility to particular diseases, such as Alzheimer's, cancer, or schizophrenia, can be partially predicted from sets of his SNPs. This results can be used for personalized genomic medicine (facilitating preventive treatment and diagnosis), genetic paternity tests, ancestry and genealogical testing, and genetic compatibility tests in order to have knowledge about which deseases would the descendant be susceptible to. These are some of the betefts we can obtain using genoma information, but if this information is not protected it can be used for criminal investigations and insurance purposes. Such issues could lead to genetic discrimination. So we can conclude that genomic privacy is fundamental due to the fact that genome contains information about our ethnic heritage, predisposition to numerous physical and mental health conditions, as well as other phenotypic traits, and ancestors, siblings, and progeny, since genomes of any two closely related individuals are 99.9% identical, in contrast with 99.5%, for two random people. The current legislation does not ofer suficient technical information about safe and secure ways of storing and processing digitized genomes, therefore, there is need for more restrictive legislation.
Resumo:
Los adhesivos se conocen y han sido utilizados en multitud de aplicaciones a lo lago de la historia. En la actualidad, la tecnología de la adhesión como método de unión de materiales estructurales está en pleno crecimiento. Los avances científicos han permitido comprender mejor los fenómenos de adhesión, así como, mejorar y desarrollar nuevas formulaciones poliméricas que incrementan el rango de aplicaciones de los adhesivos. Por otro lado, el desarrollo de nuevos materiales y la necesidad de aligerar peso, especialmente en el sector transporte, hace que las uniones adhesivas se introduzcan en aplicaciones hasta ahora reservadas a otros sistemas de unión como la soldadura o las uniones mecánicas, ofreciendo rendimientos similares y, en ocasiones, superiores a los aportados por estas. Las uniones adhesivas ofrecen numerosas ventajas frente a otros sistemas de unión. En la industria aeronáutica y en automoción, las uniones adhesivas logran una reducción en el número de componentes (tales como los tornillos, remaches, abrazaderas) consiguiendo como consecuencia diseños más ligeros y una disminución de los costes de manipulación y almacenamiento, así como una aceleración de los procesos de ensamblaje, y como consecuencia, un aumento de los procesos de producción. En el sector de la construcción y en la fabricación de equipos industriales, se busca la capacidad para soportar la expansión y contracción térmica. Por lo tanto, se usan las uniones adhesivas para evitar producir la distorsión del sustrato al no ser necesario el calentamiento ni la deformación de las piezas cuando se someten a un calentamiento elevado y muy localizado, como en el caso de la soldadura, o cuando se someten a esfuerzos mecánicos localizados, en el caso de montajes remachados. En la industria naval, se están desarrollando técnicas de reparación basadas en la unión adhesiva para distribuir de forma más uniforme y homogénea las tensiones con el objetivo de mejorar el comportamiento frente a fatiga y evitar los problemas asociados a las técnicas de reparación habituales de corte y soldadura. Las uniones adhesivas al no requerir importantes aportes de calor como la soldadura, no producen modificaciones microestructurales indeseables como sucede en la zona fundida o en la zona afectada térmicamente de las uniones soldadas, ni deteriora los recubrimientos protectores de metales de bajo punto de fusión o de naturaleza orgánica. Sin embargo, las uniones adhesivas presentan una desventaja que dificulta su aplicación, se trata de su durabilidad a largo plazo. La primera causa de rotura de los materiales es la rotura por fatiga. Este proceso de fallo es la causa del 85% de las roturas de los materiales estructurales en servicio. La rotura por fatiga se produce cuando se somete al material a la acción de cargas que varían cíclicamente o a vibraciones durante un tiempo prolongado. Las uniones y estructuras sometidas a fatiga pueden fallar a niveles de carga por debajo del límite de resistencia estática del material. La rotura por fatiga en las uniones adhesivas no se produce por un proceso de iniciación y propagación de grieta de forma estable, el proceso de fatiga va debilitando poco a poco la unión hasta que llega un momento que provoca una rotura de forma rápida. Underhill explica este mecanismo como un proceso de daño irreversible de los enlaces más débiles en determinados puntos de la unión. Cuando se ha producido el deterioro de estas zonas más débiles, su área se va incrementando hasta que llega un momento en que la zona dañada es tan amplia que se produce el fallo completo de la unión. En ensayos de crecimiento de grieta realizados sobre probetas preagrietadas en viga con doble voladizo (DCB), Dessureault identifica los procesos de iniciación y crecimiento de grietas en muestras unidas con adhesivo epoxi como una acumulación de microfisuras en la zona próxima al fondo de grieta que, luego, van coalesciendo para configurar la grieta principal. Lo que supone, igualmente, un proceso de daño del adhesivo en la zona de mayor concentración de tensiones que, posteriormente, conduce al fallo de la unión. La presente tesis surge con el propósito de aumentar los conocimientos existentes sobre el comportamiento a fatiga de las uniones adhesivas y especialmente las realizadas con dos tipos de adhesivos estructurales aplicados en aceros con diferentes acabados superficiales. El estudio incluye la obtención de las curvas de tensión frente al número de ciclos hasta el fallo del componente, curvas SN o curvas de Wöhler, que permitirán realizar una estimación de la resistencia a la fatiga de un determinado material o estructura. Los ensayos de fatiga realizados mediante ciclos predeterminados de carga sinusoidales, de amplitud y frecuencia constantes, han permitido caracterizar el comportamiento a la fatiga por el número de ciclos hasta la rotura, siendo el límite de fatiga el valor al que tiende la tensión cuando el número de ciclos es muy grande. En algunos materiales, la fatiga no tiende a un valor límite sino que decrece de forma constante a medida que aumenta el número de ciclos. Para estas situaciones, se ha definido la resistencia a la fatiga (o límite de resistencia) por la tensión en que se produce la rotura para un número de ciclos predeterminado. Todos estos aspectos permitirán un mejor diseño de las uniones y las condiciones de trabajo de los adhesivos con el fin de lograr que la resistencia a fatiga de la unión sea mucho más duradera y el comportamiento total de la unión sea mucho mejor, contribuyendo al crecimiento de la utilización de las uniones adhesivas respecto a otras técnicas. ABSTRACT Adhesives are well-known and have been used in many applications throughout history. At present, adhesion bonding technology of structural materials is experiencing an important growth. Scientific advances have enabled a better understanding of the phenomena of adhesion, as well as to improve and develop new polymeric formulations that increase the range of applications. On the other hand, the development of new materials and the need to save weight, especially in the transport sector, have promote the use of adhesive bonding in many applications previously reserved for other joining technologies such as welded or mechanical joints, presenting similar or even higher performances. Adhesive bonding offers many advantages over other joining methods. For example, in the aeronautic industry and in the automation sector, adhesive bonding allows a reduction in the number of components (such as bolts, rivets, clamps) and as consequence, resulting in lighter designs and a decrease in handling and storage costs, as well as faster assembly processes and an improvement in the production processes. In the construction sector and in the industrial equipment manufacturing, the ability to withstand thermal expansion and contraction is required. Therefore, adhesion bonding technology is used to avoid any distortion of the substrate since this technology does not require heating nor the deformation of the pieces when these are exposed to very high and localized heating, as in welding, or when are subjected to localized mechanical stresses in the case of riveted joints. In the naval industry, repair techniques based in the adhesive bonding are being developed in order to distribute stresses more uniform and homogeneously in order to improve the performance against fatigue and to avoid the problems associated with standard repair techniques as cutting and welding. Adhesive bonding does not require the use of high temperatures and as consequence they do not produce undesirable microstructural changes, as it can be observed in molten zones or in heat-affected zones in the case of welding, neither is there damage of the protective coating of metals with low melting points or polymeric films. However, adhesive bonding presents a disadvantage that limits its application, the low longterm durability. The most common cause of fractures of materials is fatigue fracture. This failure process is the cause of 85% of the fracture of structural materials in service. Fatigue failure occurs when the materials are subjected to the action of cyclic loads or vibrations for a long period of time. The joints and structures subjected to fatigue can fail at stress values below the static strength of the material. Fatigue failure do not occurs by a static and homogeneous process of initiation and propagation of crack. The fatigue process gradually weakens the bond until the moment in which the fracture occurs very rapidly. Underhill explains this mechanism as a process of irreversible damage of the weakest links at certain points of the bonding. When the deterioration in these weaker zones occurs, their area increase until the damage zone is so extensive that the full failure of the joint occurs. During the crack growth tests performed on precracked double-cantilever beam specimen, (DCB), Dessureault identified the processes of crack initiation and growth in samples bonded with epoxy adhesive as a process of accumulation of microcracks on the zone near the crack bottom, then, they coalesced to configure the main crack. This is a damage process of the adhesive in the zone of high stress concentration that leads to failure of the bond. This thesis aims to further the understanding of the fatigue behavior of the adhesive bonding, primarily those based on two different types of structural adhesives used on carbon-steel with different surface treatments. This memory includes the analysis of the SN or Wöhler curves (stress vs. number of cycles curves up to the failure), allowing to carry out an estimation of the fatigue strength of a specific material or structure. The fatigue tests carried out by means of predetermined cycles of sinusoidal loads, with a constant amplitude and frequency, allow the characterisation of the fatigue behaviour. For some materials, there is a maximum stress amplitude below which the material never fails for any number of cycles, known as fatigue limit. In the other hand, for other materials, the fatigue does not tend toward a limit value but decreases constantly as the number of cycles increases. For these situations, the fatigue strength is defined by the stress at which the fracture occurs for a predetermined number of cycles. All these aspects will enable a better joint design and service conditions of adhesives in order to get more durable joints from the fatigue failure point of view and in this way contribute to increase the use of adhesive bonding over other joint techniques.
Resumo:
El virus Encefalitis Saint Louis (VESL) (género Flavivirus) experimenta una re-emergencia en la región central del país, con la ocurrencia de un brote en Córdoba y el aislamiento de cepas de distintos genotipos. Está demostrado que los Flavivirus neurotrópicos, como VESL, replican en macrófagos y células dendríticas, tanto en el tejido local como en nódulos linfáticos satélites, para luego llegar a torrente sanguíneo y ser transportados a sistema nervioso central. Es así que el nivel de viremia inicial es regulado por la depuración del virus que realizan los macrófagos. Estas células reconocen a los virus por medio de receptores de reconocimiento de patrones moleculares asociados a patógenos, que incluyen a los receptores Toll-like (TLR). La relación entre los TLR y los virus, se fundamenta en tres aspectos: 1) los TLR al ser estimulados por moléculas derivadas de virus activan vías de señalización que inducen la producción de citoquinas pro-inflamatorias, como TNF- , IL-1, 6, 8 y 18, INF- y , que median la respuesta inmune antiviral; 2) las señales que dependen de los TLR median efectos inmunopatogénicos, como la apoptosis y la patogénesis del virus; 3) algunas estrategias terapéuticas o profilácticas antivirales se basan en la estimulación de los TLR mediante los respectivos agonistas. Como parte de la respuesta del macrófago a la infección viral, hay proliferación, diferenciación y muerte celular. A la hora de morir, estas células pueden seguir el camino que lleva a la necrosis o el de la apoptosis. Durante la activación de la respuesta inmune frente a antígenos extraños, la apoptosis es requerida para eliminar las células efectoras, una vez que han ejecutado su función y así evitar el desarrollo de procesos deletéreos para el huésped. Estudios realizados con distintos Flavivirus documentan el incremento de apoptosis de macrófagos durante la progresión de la infección y también su relación con la severidad de la patología. De acuerdo a los antecedentes expuestos, se formulan las siguientes hipótesis de estudio: 1-El fenotipo de activación del macrófago infectado con VESL está relacionado con el genotipo viral. 2-La clase de inmunomoduladores liberados y el grado de apoptosis de los macrófagos infectados con el VESL dependen del receptor de reconocimiento utilizado por el virus.El objetivo principal es caracterizar la respuesta inmune inducida en macrófagos infectados in vitro con diferentes genotipos de VESL. Para ello se plantean los siguientes objetivos específicos: 1-Determinar la capacidad de replicación de VESL en macrófagos.2-Evaluar la expresión de molécula de superficie, receptores y la producción de inmunomoduladores en macrófagos infectados con VESL.3-Analizar el impacto de la infección con VESL sobre la apoptosis de macrófagos.4-Correlacionar la expresión de antígenos de superficie, receptores, producción de inmunomoduladores, apoptosis y carga viral con el genotipo viral que infecta al macrófago.Se utilizará una línea línea celular mieloide U937 y cepas del VESL genotipo III, V y VII. Se estudiará la infección de las mismas y determinará la expresión de: CD14, CD16, CD54/ICAM-1, HLA-DR, Fas, R-TNF, CD86, IL4R, TLR2, TLR3, TLR4 y TLR7 por Citometría de Flujo. En el sobrenadante de los cultivos infectados se cuantificarán las concentraciones de IFN-, IFN-, TNF-, IL-1, IL-6, IL-8, IL-10, IL-12, IL-18 y TGF- por técnica de ELISA.Se determinará la apoptosis en los macrófagos infectados mediante marcación con Anexina V-Ficoeritrina y análisis de fragmentación del ADN.La emergencia de esta virosis en nuestro medio amerita abordar distintos aspectos de la respuesta inmune en esta infección. El conocimiento de las características de la activación del macrófago cuando se infecta con VESL, los inmunomoduladores liberados y el impacto de la infección sobre la apoptosis de ésta célula, aportaría posibles blancos para el diseño futuro de estrategias terapéuticas o profilácticas contra esta infección.
Resumo:
El melocotonero (Prunus persica (L.) Batsch) es un cultivo de importancia creciente en España, particularmente para producción temprana en las regiones meridionales de la Península. Además tiene una elevado ritmo de sustitución de variedades. Solamente entre los años 1990-96 se comercializaron en el mundo alrededor de 500 nuevos cultivares (Fideghelli et al. 1998). El valor de las nuevas obtenciones es muy elevado, por lo que existe también un gran interés en su protección por parte de los mejoradores, y en el control de su identidad por viveristas o agricultores. La identificación varietal con datos sobre la morfología y fisiología de los frutales se realiza en ensayos de campo que requieren largo tiempo, generalmente años, de observación. Estos procesos son demasiado lentos para aplicaciones como el control de identidad en vivero o para la protección de los derechos de obtentor. Los marcadores moleculares, basados en la variabilidad del ADN, pueden detectarse en cualquier momento del desarrollo de la planta, y en diferentes tejidos, permitiendo establecer en pocos días un perfil único para cada variedad. El melocotonero es una de las especies menos variables del género Prunus (Byrne, 1990). Ello se debe a su sistema de autocompatibilidad que permite la autofecundación, lo que probablemente ha causado una importante erosión de su variabilidad genética especialmente desde el uso de las técnicas modernas de mejora genética. La baja variabilidad de este cultivo significa que los 2 marcadores que deben ser utilizados para su identificación han de buscarse entre los de mayor polimorfismo, ya que el uso de marcadores de buena calidad pero poco polimórficos no permite el objetivo de la caracterización individual de cada genotipo (Messeguer et al., 1986).
Resumo:
Se estudia el papel teratogénico de dos ácidos grasos insaturados de cadena corta, ácido octinoico y ácido undecilénico, sobre insectos de metamorfosis hemimetábola, Rhodnius prolixus (Hemiptera). La penetración de los ácidos, se realiza a través de la cutícula del abdomen y de los tarsos, se presenta como una acción independiente del grado de distensión de la misma, ya que sus efectos se registran tanto en los insectos repletos, como en los hambrientos; tanto en los tratados tópicamente como en aquellos donde la droga se aplicó al papel de soporte. Los ácidos estudiados aparentemente no afectan la formación de la cutícula, ni la melanización, como tampoco afecta el proceso de la muda. Los daños inducidos por estos ácidos se presentam al azar tanto en los apéndices locomotores como en los cefálicos, observándose un desplazamiento a la proboscide a medida que se incrementa la dosis. De las malformaciones en la proboscide, es el labio el mas dramáticamente dañado, aunque también se presentan daños en los otros apéndices bucales, aisladamente o junto con el daño del labio. El daño en los apéndices locomotores está frecuentemente desplazado al segundo y tercer par de patas, mientras que el par, fue el menos afectado. El ácido octinoico se comportó como teratogénico en las dosis que fueron letales para el insecto con el ácido undecilénico.
Resumo:
La transferencia horizontal genética en bacterias se produce mediante tres procesos principales: transformación, transducción y conjugación. Este último proceso es considerado uno de los mecanismos más relevantes en la evolución bacteriana y se caracteriza por su eficiencia en la adquisición de nuevos rasgos adaptativos, como ser la resistencia a antibióticos. Existen dos tipos de plásmidos que pueden ser transferidos mediante el proceso de conjugación: conjugativos y movilizables. Los conjugativos son auto-transmisibles ya que codifican todas las proteínas necesarias para la formación del sistema de secreción (ej. F y R388 de Escherichia coli). Los movilizables, por el contrario, son solo transmisibles en presencia de funciones conjugativas adicionales (ej. pMV158 de Streptococcus agalactiae). El proceso de conjugación se inicia con el corte de un enlace específico fosfo-diéster del ADN a ser transferido mediante una proteína denominada relaxasa. Es el caso de la proteína TrwC del plásmido conjugativo R388, cuyos estudios bioquímicos y estructurales demostraron que la presencia de una tríada de histidina, coordinada a un ión metálico, y dos residuos tirosina juegan un rol decisivo en el mecanismo catalítico. Un estudio sistemático, por difracción de rayos X ha permitido determinar la identidad y función del ión metálico, la localización de la segunda tirosina catalítica y la posición del grupo fosfato del enlace fosfo-diéster a ser cortado. Asimismo, se caracterizó por difracción de rayos X, la proteína MobM del plásmido movilizable pMV158. Esta proteína cumple un papel homólogo al de la TrwC, pero en una bacteria Gram positiva. La estructura cristalina de MobM es la primera obtenida de una relaxasa implicada en el sistema de movilización de una bacteria Gram positiva. Las similitudes y diferencias estructurales se describirán en este informe.
Resumo:
L'ototoxicitat per cisplatí es presenta fins en un 70% dels pacients i pogués estar relacionada amb els haplogrups de l'ADN mitocondrial de cada individu. Material i Mètode: es va determinar el haplogrup de 26 pacients tractats amb cisplatí i es va realitzar un seguiment audiomètric durant el tractament. Resultats: 61,5% va presentar pèrdua auditiva significativa. Haplogrups: 16 pertanyents al grup HV, 6 al UK, 3 al WIX i 1 al JT. No es va trobar relació entre la pèrdua auditiva i els haplogrups de l'ADN mitocondrial. Conclusió: L'ototoxicitat per cisplastí no guarda relació amb els haplogrups de l'ADN mitocondrial.
Resumo:
Estudio de los polimorfismos del gen de la timidilato sintasa y los genes reparadores del ADN ERCC1 y XRCC1 y su relación con la rdespuesta al tratamiento neoadyvante con qumiorradioterapia basada en capecitabin, en pacientes afecto de carcinoma colorrectal de localmente avanzado.
Resumo:
Background. DNA-damage assays, quantifying the initial number of DNA double-strand breaks induced by radiation, have been proposed as a predictive test for radiation-induced toxicity. Determination of radiation-induced apoptosis in peripheral blood lymphocytes by flow cytometry analysis has also been proposed as an approach for predicting normal tissue responses following radiotherapy. The aim of the present study was to explore the association between initial DNA damage, estimated by the number of double-strand breaks induced by a given radiation dose, and the radio-induced apoptosis rates observed. Methods. Peripheral blood lymphocytes were taken from 26 consecutive patients with locally advanced breast carcinoma. Radiosensitivity of lymphocytes was quantified as the initial number of DNA double-strand breaks induced per Gy and per DNA unit (200 Mbp). Radio-induced apoptosis at 1, 2 and 8 Gy was measured by flow cytometry using annexin V/propidium iodide. Results. Radiation-induced apoptosis increased in order to radiation dose and data fitted to a semi logarithmic mathematical model. A positive correlation was found among radio-induced apoptosis values at different radiation doses: 1, 2 and 8 Gy (p < 0.0001 in all cases). Mean DSB/Gy/DNA unit obtained was 1.70 ± 0.83 (range 0.63-4.08; median, 1.46). A statistically significant inverse correlation was found between initial damage to DNA and radio-induced apoptosis at 1 Gy (p = 0.034). A trend toward 2 Gy (p = 0.057) and 8 Gy (p = 0.067) was observed after 24 hours of incubation. Conclusions. An inverse association was observed for the first time between these variables, both considered as predictive factors to radiation toxicity.
Resumo:
Cancer immunosurveillance theory has emphasized the role of escape mechanisms in tumor growth. In this respect, a very important factor is the molecular characterization of the mechanisms by which tumor cells evade immune recognition and destruction. Among the many escape mechanisms identified, alterations in classical and non-classical HLA (Human Leucocyte Antigens) class I and class II expression by tumor cells are of particular interest. In addition to the importance of HLA molecules, tumor-associated antigens and accessory/co-stimulatory molecules are also involved in immune recognition. The loss of HLA class I antigen expression and of co-stimulatory molecules can occur at genetic, transcriptional and post-transcriptional levels. Epigenetic defects are involved in at least some mechanisms that preclude mounting a successful host-antitumor response involving the HLA system, tumor-associated antigens, and accessory/co-stimulatory molecules. This review summarizes our current understanding of the role of methylation in the regulation of molecules involved in the tumor immune response.