18 resultados para Exponential versus non-exponential decay

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Motivated by the observation of spiral patterns in a wide range of physical, chemical, and biological systems, we present an automated approach that aims at characterizing quantitatively spiral-like elements in complex stripelike patterns. The approach provides the location of the spiral tip and the size of the spiral arms in terms of their arc length and their winding number. In addition, it yields the number of pattern components (Betti number of order 1), as well as their size and certain aspects of their shape. We apply the method to spiral defect chaos in thermally driven Rayleigh- Bénard convection and find that the arc length of spirals decreases monotonically with decreasing Prandtl number of the fluid and increasing heating. By contrast, the winding number of the spirals is nonmonotonic in the heating. The distribution function for the number of spirals is significantly narrower than a Poisson distribution. The distribution function for the winding number shows approximately an exponential decay. It depends only weakly on the heating, but strongly on the Prandtl number. Large spirals arise only for larger Prandtl numbers. In this regime the joint distribution for the spiral length and the winding number exhibits a three-peak structure, indicating the dominance of Archimedean spirals of opposite sign and relatively straight sections. For small Prandtl numbers the distribution function reveals a large number of small compact pattern components.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We have determined the cross-section σ for color center generation under single Br ion impacts on amorphous SiO2. The evolution of the cross-sections, σ(E) and σ(Se), show an initial flat stage that we associate to atomic collision mechanisms. Above a certain threshold value (Se > 2 keV/nm), roughly coinciding with that reported for the onset of macroscopic disorder (compaction), σ shows a marked increase due to electronic processes. In this regime, a energetic cost of around 7.5 keV is necessary to create a non bridging oxygen hole center-E′ (NBOHC/E′) pair, whatever the input energy. The data appear consistent with a non-radiative decay of self-trapped excitons.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El auge que ha surgido en los últimos años por la reparación de edificios y estructuras construidas con hormigón ha llevado al desarrollo de morteros de reparación cada vez más tecnológicos. En el desarrollo de estos morteros por parte de los fabricantes, surge la disyuntiva en el uso de los polímeros en sus formulaciones, por no encontrarse justificado en ocasiones el trinomio prestaciones/precio/aplicación. En esta tesis se ha realizado un estudio exhaustivo para la justificación de la utilización de estos morteros como morteros de reparación estructural como respuesta a la demanda actual disponiéndolo en tres partes: En la primera parte se realizó un estudio del arte de los morteros y sus constituyentes. El uso de los morteros se remonta a la antigüedad, utilizándose como componentes yeso y cal fundamentalmente. Los griegos y romanos desarrollaron el concepto de morteros de cal, introduciendo componentes como las puzolanas, cales hidraúlicas y áridos de polvo de mármol dando origen a morteros muy parecidos a los hormigones actuales. En la edad media y renacimiento se perdió la tecnología desarrollada por los romanos debido al extenso uso de la piedra en las construcciones civiles, defensivas y religiosas. Hubo que esperar hasta el siglo XIX para que J. Aspdin descubriese el actual cemento como el principal compuesto hidraúlico. Por último y ya en el siglo XX con la aparición de moléculas tales como estireno, melanina, cloruro de vinilo y poliésteres se comenzó a desarrollar la industria de los polímeros que se añadieron a los morteros dando lugar a los “composites”. El uso de polímeros en matrices cementantes dotan al mortero de propiedades tales como: adherencia, flexibilidad y trabajabilidad, como ya se tiene constancia desde los años 30 con el uso de caucho naturales. En la actualidad el uso de polímeros de síntesis (polivinialacetato, estireno-butadieno, viniacrílico y resinas epoxi) hacen que principalmente el mortero tenga mayor resistencia al ataque del agua y por lo tanto aumente su durabilidad ya que se minimizan todas las reacciones de deterioro (hielo, humedad, ataque biológico,…). En el presente estudio el polímero que se utilizó fue en estado polvo: polímero redispersable. Estos polímeros están encapsulados y cuando se ponen en contacto con el agua se liberan de la cápsula formando de nuevo el gel. En los morteros de reparación el único compuesto hidraúlico que hay es el cemento y es el principal constituyente hoy en día de los materiales de construcción. El cemento se obtiene por molienda conjunta de Clínker y yeso. El Clínker se obtiene por cocción de una mezcla de arcillas y calizas hasta una temperatura de 1450-1500º C por reacción en estado fundente. Para esta reacción se deben premachacar y homogeneizar las materias primas extraídas de la cantera. Son dosificadas en el horno con unas proporciones tales que cumplan con unas relación de óxidos tales que permitan formar las fases anhidras del Clínker C3S, C2S, C3A y C4AF. De la hidratación de las fases se obtiene el gel CSH que es el que proporciona al cemento de sus propiedades. Existe una norma (UNE-EN 197-1) que establece la composición, especificaciones y tipos de cementos que se fabrican en España. La tendencia actual en la fabricación del cemento pasa por el uso de cementos con mayores contenidos de adiciones (cal, puzolana, cenizas volantes, humo de sílice,…) con el objeto de obtener cementos más sostenibles. Otros componentes que influyen en las características de los morteros son: - Áridos. En el desarrollo de los morteros se suelen usar naturales, bien calizos o silícicos. Hacen la función de relleno y de cohesionantes de la matriz cementante. Deben ser inertes - Aditivos. Son aquellos componentes del mortero que son dosificados en una proporción menor al 5%. Los más usados son los superplastificantes por su acción de reductores de agua que revierte en una mayor durabilidad del mortero. Una vez analizada la composición de los morteros, la mejora tecnológica de los mismos está orientada al aumento de la durabilidad de su vida en obra. La durabilidad se define como la capacidad que éste tiene de resistir a la acción del ambiente, ataques químicos, físicos, biológicos o cualquier proceso que tienda a su destrucción. Estos procesos dependen de factores tales como la porosidad del hormigón y de la exposición al ambiente. En cuanto a la porosidad hay que tener en cuenta la distribución de macroporos, mesoporos y microporos de la estructura del hormigón, ya que no todos son susceptibles de que se produzca el transporte de agentes deteriorantes, provocando tensiones internas en las paredes de los mismos y destruyendo la matriz cementante Por otro lado los procesos de deterioro están relacionados con la acción del agua bien como agente directo o como vehículo de transporte del agente deteriorante. Un ambiente que resulta muy agresivo para los hormigones es el marino. En este caso los procesos de deterioro están relacionados con la presencia de cloruros y de sulfatos tanto en el agua de mar como en la atmosfera que en combinación con el CO2 y O2 forman la sal de Friedel. El deterioro de las estructuras en ambientes marinos se produce por la debilitación de la matriz cementante y posterior corrosión de las armaduras que provocan un aumento de volumen en el interior y rotura de la matriz cementante por tensiones capilares. Otras reacciones que pueden producir estos efectos son árido-álcali y difusión de iones cloruro. La durabilidad de un hormigón también depende del tipo de cemento y su composición química (cementos con altos contenidos de adición son más resistentes), relación agua/cemento y contenido de cemento. La Norma UNE-EN 1504 que consta de 10 partes, define los productos para la protección y reparación de estructuras de hormigón, el control de calidad de los productos, propiedades físico-químicas y durables que deben cumplir. En esta Norma se referencian otras 65 normas que ofrecen los métodos de ensayo para la evaluación de los sistemas de reparación. En la segunda parte de esta Tesis se hizo un diseño de experimentos con diferentes morteros poliméricos (con concentraciones de polímero entre 0 y 25%), tomando como referencia un mortero control sin polímero, y se estudiaron sus propiedades físico-químicas, mecánicas y durables. Para mortero con baja proporción de polímero se recurre a sistemas monocomponentes y para concentraciones altas bicomponentes en la que el polímero está en dispersión acuosa. Las propiedades mecánicas medidas fueron: resistencia a compresión, resistencia a flexión, módulo de elasticidad, adherencia por tracción directa y expansión-retracción, todas ellas bajo normas UNE. Como ensayos de caracterización de la durabilidad: absorción capilar, resistencia a carbonatación y adherencia a tracción después de ciclos hielo-deshielo. El objeto de este estudio es seleccionar el mortero con mejor resultado general para posteriormente hacer una comparativa entre un mortero con polímero (cantidad optimizada) y un mortero sin polímero. Para seleccionar esa cantidad óptima de polímero a usar se han tenido en cuenta los siguientes criterios: el mortero debe tener una clasificación R4 en cuanto a prestaciones mecánicas al igual que para evaluar sus propiedades durables frente a los ciclos realizados, siempre teniendo en cuenta que la adición de polímero no puede ser elevada para hacer el mortero competitivo. De este estudio se obtuvieron las siguientes conclusiones generales: - Un mortero normalizado no cumple con propiedades para ser clasificado como R3 o R4. - Sin necesidad de polímero se puede obtener un mortero que cumpliría con R4 para gran parte de las características medidas - Es necesario usar relaciones a:c< 0.5 para conseguir morteros R4, - La adición de polímero mejora siempre la adherencia, abrasión, absorción capilar y resistencia a carbonatación - Las diferentes proporciones de polímero usadas siempre suponen una mejora tecnológica en propiedades mecánicas y de durabilidad. - El polímero no influye sobre la expansión y retracción del mortero. - La adherencia se mejora notablemente con el uso del polímero. - La presencia de polímero en los morteros mejoran las propiedades relacionadas con la acción del agua, por aumento del poder cementante y por lo tanto de la cohesión. El poder cementante disminuye la porosidad. Como consecuencia final de este estudio se determinó que la cantidad óptima de polímero para la segunda parte del estudio es 2.0-3.5%. La tercera parte consistió en el estudio comparativo de dos morteros: uno sin polímero (mortero A) y otro con la cantidad optimizada de polímero, concluida en la parte anterior (mortero B). Una vez definido el porcentaje de polímeros que mejor se adapta a los resultados, se plantea un nuevo esqueleto granular mejorado, tomando una nueva dosificación de tamaños de áridos, tanto para el mortero de referencia, como para el mortero con polímeros, y se procede a realizar los ensayos para su caracterización física, microestructural y de durabilidad, realizándose, además de los ensayos de la parte 1, mediciones de las propiedades microestructurales que se estudiaron a través de las técnicas de porosimetría de mercurio y microscopia electrónica de barrido (SEM); así como propiedades del mortero en estado fresco (consistencia, contenido de aire ocluido y tiempo final de fraguado). El uso del polímero frente a la no incorporación en la formulación del mortero, proporcionó al mismo de las siguientes ventajas: - Respecto a sus propiedades en estado fresco: El mortero B presentó mayor consistencia y menor cantidad de aire ocluido lo cual hace un mortero más trabajable y más dúctil al igual que más resistente porque al endurecer dejará menos huecos en su estructura interna y aumentará su durabilidad. Al tener también mayor tiempo de fraguado, pero no excesivo permite que la manejabilidad para puesta en obra sea mayor, - Respecto a sus propiedades mecánicas: Destacar la mejora en la adherencia. Es una de las principales propiedades que confiere el polímero a los morteros. Esta mayor adherencia revierte en una mejora de la adherencia al soporte, minimización de las posibles reacciones en la interfase hormigón-mortero y por lo tanto un aumento en la durabilidad de la reparación ejecutada con el mortero y por consecuencia del hormigón. - Respecto a propiedades microestructurales: la porosidad del mortero con polímero es menor y menor tamaño de poro critico susceptible de ser atacado por agentes externos causantes de deterioro. De los datos obtenidos por SEM no se observaron grandes diferencias - En cuanto a abrasión y absorción capilar el mortero B presentó mejor comportamiento como consecuencia de su menor porosidad y su estructura microscópica. - Por último el comportamiento frente al ataque de sulfatos y agua de mar, así como al frente de carbonatación, fue más resistente en el mortero con polímero por su menor permeabilidad y su menor porosidad. Para completar el estudio de esta tesis, y debido a la gran importancia que están tomando en la actualidad factores como la sostenibilidad se ha realizado un análisis de ciclo de vida de los dos morteros objeto de estudio de la segunda parte experimental.In recent years, the extended use of repair materials for buildings and structures made the development of repair mortars more and more technical. In the development of these mortars by producers, the use of polymers in the formulations is a key point, because sometimes this use is not justified when looking to the performance/price/application as a whole. This thesis is an exhaustive study to justify the use of these mortars as a response to the current growing demand for structural repair. The thesis is classified in three parts:The first part is the study of the state of the art of mortars and their constituents.In ancient times, widely used mortars were based on lime and gypsum. The Greeks and Romans developed the concept of lime mortars, introducing components such as pozzolans, hydraulic limes and marble dust as aggregates, giving very similar concrete mortars to the ones used currently. In the middle Age and Renaissance, the technology developed by the Romans was lost, due to the extensive use of stone in the civil, religious and defensive constructions. It was not until the 19th century, when J. Aspdin discovered the current cement as the main hydraulic compound. Finally in the 20th century, with the appearance of molecules such as styrene, melanin, vinyl chloride and polyester, the industry began to develop polymers which were added to the binder to form special "composites".The use of polymers in cementitious matrixes give properties to the mortar such as adhesion, Currently, the result of the polymer synthesis (polivynilacetate, styrene-butadiene, vynilacrylic and epoxy resins) is that mortars have increased resistance to water attack and therefore, they increase their durability since all reactions of deterioration are minimised (ice, humidity, biological attack,...). In the present study the polymer used was redispersible polymer powder. These polymers are encapsulated and when in contact with water, they are released from the capsule forming a gel.In the repair mortars, the only hydraulic compound is the cement and nowadays, this is the main constituent of building materials. The current trend is centered in the use of higher contents of additions (lime, pozzolana, fly ash, silica, silica fume...) in order to obtain more sustainable cements. Once the composition of mortars is analyzed, the technological improvement is centred in increasing the durability of the working life. Durability is defined as the ability to resist the action of the environment, chemical, physical, and biological attacks or any process that tends to its destruction. These processes depend on factors such as the concrete porosity and the environmental exposure. In terms of porosity, it be considered, the distribution of Macropores and mesopores and pores of the concrete structure, since not all of them are capable of causing the transportation of damaging agents, causing internal stresses on the same walls and destroying the cementing matrix.In general, deterioration processes are related to the action of water, either as direct agent or as a transport vehicle. Concrete durability also depends on the type of cement and its chemical composition (cement with high addition amounts are more resistant), water/cement ratio and cement content. The standard UNE-EN 1504 consists of 10 parts and defines the products for the protection and repair of concrete, the quality control of products, physical-chemical properties and durability. Other 65 standards that provide the test methods for the evaluation of repair systems are referenced in this standard. In the second part of this thesis there is a design of experiments with different polymer mortars (with concentrations of polymer between 0 and 25%), taking a control mortar without polymer as a reference and its physico-chemical, mechanical and durable properties were studied. For mortars with low proportion of polymer, 1 component systems are used (powder polymer) and for high polymer concentrations, water dispersion polymers are used. The mechanical properties measured were: compressive strength, flexural strength, modulus of elasticity, adhesion by direct traction and expansion-shrinkage, all of them under standards UNE. As a characterization of the durability, following tests are carried out: capillary absorption, resistance to carbonation and pull out adhesion after freeze-thaw cycles. The target of this study is to select the best mortar to make a comparison between mortars with polymer (optimized amount) and mortars without polymer. To select the optimum amount of polymer the following criteria have been considered: the mortar must have a classification R4 in terms of mechanical performance as well as in durability properties against the performed cycles, always bearing in mind that the addition of polymer cannot be too high to make the mortar competitive in price. The following general conclusions were obtained from this study: - A standard mortar does not fulfill the properties to be classified as R3 or R4 - Without polymer, a mortar may fulfill R4 for most of the measured characteristics. - It is necessary to use relations w/c ratio < 0.5 to get R4 mortars - The addition of polymer always improves adhesion, abrasion, capillary absorption and carbonation resistance - The different proportions of polymer used always improve the mechanical properties and durability. - The polymer has no influence on the expansion and shrinkage of the mortar - Adhesion is improved significantly with the use of polymer. - The presence of polymer in mortars improves the properties related to the action of the water, by the increase of the cement power and therefore the cohesion. The cementitious properties decrease the porosity. As final result of this study, it was determined that the optimum amount of polymer for the second part of the study is 2.0 - 3.5%. The third part is the comparative study between two mortars: one without polymer (A mortar) and another with the optimized amount of polymer, completed in the previous part (mortar B). Once the percentage of polymer is defined, a new granular skeleton is defined, with a new dosing of aggregate sizes, for both the reference mortar, the mortar with polymers, and the tests for physical, microstructural characterization and durability, are performed, as well as trials of part 1, measurements of the microstructural properties that were studied by scanning electron microscopy (SEM) and mercury porosimetry techniques; as well as properties of the mortar in fresh State (consistency, content of entrained air and final setting time). The use of polymer versus non polymer mortar, provided the following advantages: - In fresh state: mortar with polymer presented higher consistency and least amount of entrained air, which makes a mortar more workable and more ductile as well as more resistant because hardening will leave fewer gaps in its internal structure and increase its durability. Also allow it allows a better workability because of the longer (not excessive) setting time. - Regarding the mechanical properties: improvement in adhesion. It is one of the main properties which give the polymer to mortars. This higher adhesion results in an improvement of adhesion to the substrate, minimization of possible reactions at the concrete-mortar interface and therefore an increase in the durability of the repair carried out with mortar and concrete. - Respect to microstructural properties: the porosity of mortar with polymer is less and with smaller pore size, critical to be attacked by external agents causing deterioration. No major differences were observed from the data obtained by SEM - In terms of abrasion and capillary absorption, polymer mortar presented better performance as a result of its lower porosity and its microscopic structure. - Finally behavior against attack by sulfates and seawater, as well as to carbonation, was better in the mortar with polymer because of its lower permeability and its lower porosity. To complete the study, due to the great importance of sustainability for future market facts, the life cycle of the two mortars studied was analysed.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La caracterización de los cultivos cubierta (cover crops) puede permitir comparar la idoneidad de diferentes especies para proporcionar servicios ecológicos como el control de la erosión, el reciclado de nutrientes o la producción de forrajes. En este trabajo se estudiaron bajo condiciones de campo diferentes técnicas para caracterizar el dosel vegetal con objeto de establecer una metodología para medir y comparar las arquitecturas de los cultivos cubierta más comunes. Se estableció un ensayo de campo en Madrid (España central) para determinar la relación entre el índice de área foliar (LAI) y la cobertura del suelo (GC) para un cultivo de gramínea, uno de leguminosa y uno de crucífera. Para ello se sembraron doce parcelas con cebada (Hordeum vulgare L.), veza (Vicia sativa L.), y colza (Brassica napus L.). En 10 fechas de muestreo se midieron el LAI (con estimaciones directas y del LAI-2000), la fracción interceptada de la radiación fotosintéticamente activa (FIPAR) y la GC. Un experimento de campo de dos años (Octubre-Abril) se estableció en la misma localización para evaluar diferentes especies (Hordeum vulgare L., Secale cereale L., x Triticosecale Whim, Sinapis alba L., Vicia sativa L.) y cultivares (20) en relación con su idoneidad para ser usadas como cultivos cubierta. La GC se monitorizó mediante análisis de imágenes digitales con 21 y 22 muestreos, y la biomasa se midió 8 y 10 veces, respectivamente para cada año. Un modelo de Gompertz caracterizó la cobertura del suelo hasta el decaimiento observado tras las heladas, mientras que la biomasa se ajustó a ecuaciones de Gompertz, logísticas y lineales-exponenciales. Al final del experimento se determinaron el C, el N y el contenido en fibra (neutrodetergente, ácidodetergente y lignina), así como el N fijado por las leguminosas. Se aplicó el análisis de decisión multicriterio (MCDA) con objeto de obtener un ranking de especies y cultivares de acuerdo con su idoneidad para actuar como cultivos cubierta en cuatro modalidades diferentes: cultivo de cobertura, cultivo captura, abono verde y forraje. Las asociaciones de cultivos leguminosas con no leguminosas pueden afectar al crecimiento radicular y a la absorción de N de ambos componentes de la mezcla. El conocimiento de cómo los sistemas radiculares específicos afectan al crecimiento individual de las especies es útil para entender las interacciones en las asociaciones, así como para planificar estrategias de cultivos cubierta. En un tercer ensayo se combinaron estudios en rhizotrones con extracción de raíces e identificación de especies por microscopía, así como con estudios de crecimiento, absorción de N y 15N en capas profundas del suelo. Las interacciones entre raíces en su crecimiento y en el aprovisionamiento de N se estudiaron para dos de los cultivares mejor valorados en el estudio previo: uno de cebada (Hordeum vulgare L. cv. Hispanic) y otro de veza (Vicia sativa L. cv. Aitana). Se añadió N en dosis de 0 (N0), 50 (N1) y 150 (N2) kg N ha-1. Como resultados del primer estudio, se ajustaron correctamente modelos lineales y cuadráticos a la relación entre la GC y el LAI para todos los cultivos, pero en la gramínea alcanzaron una meseta para un LAI>4. Antes de alcanzar la cobertura total, la pendiente de la relación lineal entre ambas variables se situó en un rango entre 0.025 y 0.030. Las lecturas del LAI-2000 estuvieron correlacionadas linealmente con el LAI, aunque con tendencia a la sobreestimación. Las correcciones basadas en el efecto de aglutinación redujeron el error cuadrático medio del LAI estimado por el LAI-2000 desde 1.2 hasta 0.5 para la crucífera y la leguminosa, no siendo efectivas para la cebada. Esto determinó que para los siguientes estudios se midieran únicamente la GC y la biomasa. En el segundo experimento, las gramíneas alcanzaron la mayor cobertura del suelo (83-99%) y la mayor biomasa (1226-1928 g m-2) al final del mismo. Con la mayor relación C/N (27-39) y contenido en fibra digestible (53-60%) y la menor calidad de residuo (~68%). La mostaza presentó elevadas GC, biomasa y absorción de N en el año más templado en similitud con las gramíneas, aunque escasa calidad como forraje en ambos años. La veza presentó la menor absorción de N (2.4-0.7 g N m-2) debido a la fijación de N (9.8-1.6 g N m-2) y escasa acumulación de N. El tiempo térmico hasta alcanzar el 30% de GC constituyó un buen indicador de especies de rápida cubrición. La cuantificación de las variables permitió hallar variabilidad entre las especies y proporcionó información para posteriores decisiones sobre la selección y manejo de los cultivos cubierta. La agregación de dichas variables a través de funciones de utilidad permitió confeccionar rankings de especies y cultivares para cada uso. Las gramíneas fueron las más indicadas para los usos de cultivo de cobertura, cultivo captura y forraje, mientras que las vezas fueron las mejor como abono verde. La mostaza alcanzó altos valores como cultivo de cobertura y captura en el primer año, pero el segundo decayó debido a su pobre actuación en los inviernos fríos. Hispanic fue el mejor cultivar de cebada como cultivo de cobertura y captura, mientras que Albacete como forraje. El triticale Titania alcanzó la posición más alta como cultiva de cobertura, captura y forraje. Las vezas Aitana y BGE014897 mostraron buenas aptitudes como abono verde y cultivo captura. El MCDA permitió la comparación entre especies y cultivares proporcionando información relevante para la selección y manejo de cultivos cubierta. En el estudio en rhizotrones tanto la mezcla de especies como la cebada alcanzaron mayor intensidad de raíces (RI) y profundidad (RD) que la veza, con valores alrededor de 150 cruces m-1 y 1.4 m respectivamente, comparados con 50 cruces m-1 y 0.9 m para la veza. En las capas más profundas del suelo, la asociación de cultivos mostró valores de RI ligeramente mayores que la cebada en monocultivo. La cebada y la asociación obtuvieron mayores valores de densidad de raíces (RLD) (200-600 m m-3) que la veza (25-130) entre 0.8 y 1.2 m de profundidad. Los niveles de N no mostraron efectos claros en RI, RD ó RLD, sin embargo, el incremento de N favoreció la proliferación de raíces de veza en la asociación en capas profundas del suelo, con un ratio cebada/veza situado entre 25 a N0 y 5 a N2. La absorción de N de la cebada se incrementó en la asociación a expensas de la veza (de ~100 a 200 mg planta-1). Las raíces de cebada en la asociación absorbieron también más nitrógeno marcado de las capas profundas del suelo (0.6 mg 15N planta-1) que en el monocultivo (0.3 mg 15N planta-1). ABSTRACT Cover crop characterization may allow comparing the suitability of different species to provide ecological services such as erosion control, nutrient recycling or fodder production. Different techniques to characterize plant canopy were studied under field conditions in order to establish a methodology for measuring and comparing cover crops canopies. A field trial was established in Madrid (central Spain) to determine the relationship between leaf area index (LAI) and ground cover (GC) in a grass, a legume and a crucifer crop. Twelve plots were sown with either barley (Hordeum vulgare L.), vetch (Vicia sativa L.), or rape (Brassica napus L.). On 10 sampling dates the LAI (both direct and LAI-2000 estimations), fraction intercepted of photosynthetically active radiation (FIPAR) and GC were measured. A two-year field experiment (October-April) was established in the same location to evaluate different species (Hordeum vulgare L., Secale cereale L., x Triticosecale Whim, Sinapis alba L., Vicia sativa L.) and cultivars (20) according to their suitability to be used as cover crops. GC was monitored through digital image analysis with 21 and 22 samples, and biomass measured 8 and 10 times, respectively for each season. A Gompertz model characterized ground cover until the decay observed after frosts, while biomass was fitted to Gompertz, logistic and linear-exponential equations. At the end of the experiment C, N, and fiber (neutral detergent, acid and lignin) contents, and the N fixed by the legumes were determined. Multicriteria decision analysis (MCDA) was applied in order to rank the species and cultivars according to their suitability to perform as cover crops in four different modalities: cover crop, catch crop, green manure and fodder. Intercropping legumes and non-legumes may affect the root growth and N uptake of both components in the mixture. The knowledge of how specific root systems affect the growth of the individual species is useful for understanding the interactions in intercrops as well as for planning cover cropping strategies. In a third trial rhizotron studies were combined with root extraction and species identification by microscopy and with studies of growth, N uptake and 15N uptake from deeper soil layers. The root interactions of root growth and N foraging were studied for two of the best ranked cultivars in the previous study: a barley (Hordeum vulgare L. cv. Hispanic) and a vetch (Vicia sativa L. cv. Aitana). N was added at 0 (N0), 50 (N1) and 150 (N2) kg N ha-1. As a result, linear and quadratic models fitted to the relationship between the GC and LAI for all of the crops, but they reached a plateau in the grass when the LAI > 4. Before reaching full cover, the slope of the linear relationship between both variables was within the range of 0.025 to 0.030. The LAI-2000 readings were linearly correlated with the LAI but they tended to overestimation. Corrections based on the clumping effect reduced the root mean square error of the estimated LAI from the LAI-2000 readings from 1.2 to less than 0.50 for the crucifer and the legume, but were not effective for barley. This determined that in the following studies only the GC and biomass were measured. In the second experiment, the grasses reached the highest ground cover (83- 99%) and biomass (1226-1928 g/m2) at the end of the experiment. The grasses had the highest C/N ratio (27-39) and dietary fiber (53-60%) and the lowest residue quality (~68%). The mustard presented high GC, biomass and N uptake in the warmer year with similarity to grasses, but low fodder capability in both years. The vetch presented the lowest N uptake (2.4-0.7 g N/m2) due to N fixation (9.8-1.6 g N/m2) and low biomass accumulation. The thermal time until reaching 30% ground cover was a good indicator of early coverage species. Variable quantification allowed finding variability among the species and provided information for further decisions involving cover crops selection and management. Aggregation of these variables through utility functions allowed ranking species and cultivars for each usage. Grasses were the most suitable for the cover crop, catch crop and fodder uses, while the vetches were the best as green manures. The mustard attained high ranks as cover and catch crop the first season, but the second decayed due to low performance in cold winters. Hispanic was the most suitable barley cultivar as cover and catch crop, and Albacete as fodder. The triticale Titania attained the highest rank as cover and catch crop and fodder. Vetches Aitana and BGE014897 showed good aptitudes as green manures and catch crops. MCDA allowed comparison among species and cultivars and might provide relevant information for cover crops selection and management. In the rhizotron study the intercrop and the barley attained slightly higher root intensity (RI) and root depth (RD) than the vetch, with values around 150 crosses m-1 and 1.4 m respectively, compared to 50 crosses m-1 and 0.9 m for the vetch. At deep soil layers, intercropping showed slightly larger RI values compared to the sole cropped barley. The barley and the intercropping had larger root length density (RLD) values (200-600 m m-3) than the vetch (25-130) at 0.8-1.2 m depth. The topsoil N supply did not show a clear effect on the RI, RD or RLD; however increasing topsoil N favored the proliferation of vetch roots in the intercropping at deep soil layers, with the barley/vetch root ratio ranging from 25 at N0 to 5 at N2. The N uptake of the barley was enhanced in the intercropping at the expense of the vetch (from ~100 mg plant-1 to 200). The intercropped barley roots took up more labeled nitrogen (0.6 mg 15N plant-1) than the sole-cropped barley roots (0.3 mg 15N plant-1) from deep layers.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

We present a compact formula for the derivative of a 3-D rotation matrix with respect to its exponential coordinates. A geometric interpretation of the resulting expression is provided, as well as its agreement with other less-compact but better-known formulas. To the best of our knowledge, this simpler formula does not appear anywhere in the literature. We hope by providing this more compact expression to alleviate the common pressure to reluctantly resort to alternative representations in various computational applications simply as a means to avoid the complexity of differential analysis in exponential coordinates.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El estudio de la fiabilidad de componentes y sistemas tiene gran importancia en diversos campos de la ingenieria, y muy concretamente en el de la informatica. Al analizar la duracion de los elementos de la muestra hay que tener en cuenta los elementos que no fallan en el tiempo que dure el experimento, o bien los que fallen por causas distintas a la que es objeto de estudio. Por ello surgen nuevos tipos de muestreo que contemplan estos casos. El mas general de ellos, el muestreo censurado, es el que consideramos en nuestro trabajo. En este muestreo tanto el tiempo hasta que falla el componente como el tiempo de censura son variables aleatorias. Con la hipotesis de que ambos tiempos se distribuyen exponencialmente, el profesor Hurt estudio el comportamiento asintotico del estimador de maxima verosimilitud de la funcion de fiabilidad. En principio parece interesante utilizar metodos Bayesianos en el estudio de la fiabilidad porque incorporan al analisis la informacion a priori de la que se dispone normalmente en problemas reales. Por ello hemos considerado dos estimadores Bayesianos de la fiabilidad de una distribucion exponencial que son la media y la moda de la distribucion a posteriori. Hemos calculado la expansion asint6tica de la media, varianza y error cuadratico medio de ambos estimadores cuando la distribuci6n de censura es exponencial. Hemos obtenido tambien la distribucion asintotica de los estimadores para el caso m3s general de que la distribucion de censura sea de Weibull. Dos tipos de intervalos de confianza para muestras grandes se han propuesto para cada estimador. Los resultados se han comparado con los del estimador de maxima verosimilitud, y con los de dos estimadores no parametricos: limite producto y Bayesiano, resultando un comportamiento superior por parte de uno de nuestros estimadores. Finalmente nemos comprobado mediante simulacion que nuestros estimadores son robustos frente a la supuesta distribuci6n de censura, y que uno de los intervalos de confianza propuestos es valido con muestras pequenas. Este estudio ha servido tambien para confirmar el mejor comportamiento de uno de nuestros estimadores. SETTING OUT AND SUMMARY OF THE THESIS When we study the lifetime of components it's necessary to take into account the elements that don't fail during the experiment, or those that fail by reasons which are desirable to exclude from consideration. The model of random censorship is very usefull for analysing these data. In this model the time to failure and the time censor are random variables. We obtain two Bayes estimators of the reliability function of an exponential distribution based on randomly censored data. We have calculated the asymptotic expansion of the mean, variance and mean square error of both estimators, when the censor's distribution is exponential. We have obtained also the asymptotic distribution of the estimators for the more general case of censor's Weibull distribution. Two large-sample confidence bands have been proposed for each estimator. The results have been compared with those of the maximum likelihood estimator, and with those of two non parametric estimators: Product-limit and Bayesian. One of our estimators has the best behaviour. Finally we have shown by simulation, that our estimators are robust against the assumed censor's distribution, and that one of our intervals does well in small sample situation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Seed dormancy prevents seeds from germinating under environmental conditions unfavourable for plant growth and development and constitutes an evolutionary advantage. Dry storage, also known as after-ripening, gradually decreases seed dormancy by mechanisms not well understood. An Arabidopsis thaliana DOF transcription factor gene (DOF6) affecting seed germination has been characterized. The transcript levels of this gene accumulate in dry seeds and decay gradually during after-ripening and also upon seed imbibition. While constitutive over-expression of DOF6 produced aberrant growth and sterility in the plant, its over-expression induced upon seed imbibition triggered delayed germination, abscisic acid (ABA)-hypersensitive phenotypes and increased expression of the ABA biosynthetic gene ABA1 and ABA-related stress genes. Wild-type germination and gene expression were gradually restored during seed after-ripening, despite of DOF6-induced over-expression. DOF6 was found to interact in a yeast two-hybrid system andin planta with TCP14, a previously described positive regulator of seed germination. The expression of ABA1 and ABA-related stress genes was also enhanced in tcp14 knock-out mutants. Taken together, these results indicate that DOF6 negatively affects seed germination and opposes TCP14 function in the regulation of a specific set of ABA-related genes

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We investigated the atomic surface properties of differently prepared silicon and germanium (100) surfaces during metal-organic vapour phase epitaxy/chemical vapour deposition (MOVPE/MOCVD), in particular the impact of the MOVPE ambient, and applied reflectance anisotropy/difference spectroscopy (RAS/RDS) in our MOVPE reactor to in-situ watch and control the preparation on the atomic length scale for subsequent III-V-nucleation. The technological interest in the predominant opto-electronic properties of III-V-compounds drives the research for their heteroepitaxial integration on more abundant and cheaper standard substrates such as Si(100) or Ge(100). In these cases, a general task must be accomplished successfully, i.e. the growth of polar materials on non-polar substrates and, beyond that, very specific variations such as the individual interface formation and the atomic step structure, have to be controlled. Above all, the method of choice to grow industrial relevant high-performance device structures is MOVPE, not normally compatible with surface and interface sensitive characterization tools, which are commonly based on ultrahigh vacuum (UHV) ambients. A dedicated sample transfer system from MOVPE environment to UHV enabled us to benchmark the optical in-situ spectra with results from various surfaces science instruments without considering disruptive contaminants. X-ray photoelectron spectroscopy (XPS) provided direct observation of different terminations such as arsenic and phosphorous and verified oxide removal under various specific process parameters. Absorption lines in Fourier-transform infrared (FTIR) spectra were used to identify specific stretch modes of coupled hydrides and the polarization dependence of the anti-symmetric stretch modes distinguished different dimer orientations. Scanning tunnelling microscopy (STM) studied the atomic arrangement of dimers and steps and tip-induced H-desorption proved the saturation of dangling bonds after preparati- n. In-situ RAS was employed to display details transiently such as the presence of H on the surface at lower temperatures (T <; 800°C) and the absence of Si-H bonds at elevated annealing temperature and also surface terminations. Ge buffer growth by the use of GeH4 enables the preparation of smooth surfaces and leads to a more pronounced amplitude of the features in the spectra which indicates improvements of the surface quality.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Some experiments have been performed to investigate the cyclic freeze-thaw deterioration of concrete, using traditional and non-traditional techniques. Two concrete mixes, with different pore structure, were tested in order to compare the behavior of a freeze-thaw resistant concrete from one that is not. One of the concretes was air entrained, high content of cement and low w/c ratio, and the other one was a lower cement content and higher w/c ratio, without air-entraining agent. Concrete specimens were studied under cyclic freeze-thaw conditions according to UNE-CENT/TS 12390-9 test, using 3% NaCl solution as freezing medium (CDF test: Capillary Suction, De-icing agent and Freeze-thaw Test). The temperature and relative humidity were measured during the cycles inside the specimens using embedded sensors placed at different heights from the surface in contact with the de-icing agent solution. Strain gauges were used to measure the strain variations at the surface of the specimens. Also, measurements of ultrasonic pulse velocity through the concrete specimens were taken before, during, and after the freeze-thaw cycles. According to the CDF test, the failure of the non-air-entraining agent concrete was observed before 28 freeze-thaw cycles; contrariwise, the scaling of the air-entraining agent concrete was only 0.10 kg/m 2 after 28 cycles, versus 3.23 kg/m 2 in the deteriorated concrete, after 28 cycles. Similar behavior was observed on the strain measurements. The residual strain in the deteriorated concrete after 28 cycles was 1150 m versus 65 m, in the air-entraining agent concrete. By means of monitoring the changes of ultrasonic pulse velocity during the freeze-thaw cycles, the deterioration of the tested specimens were assessed

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we propose a condition for rejecting the input word by an accepting splicing system which is defined by a finite set of forbidding words. We investigate the computational power of the new variants of accepting splicing systems. We show that the new condition strictly increases the computational power of accepting splicing systems. Rather surprisingly, accepting splicing systems considered here can accept non-regular languages, a situation that has never occurred in the case of (extended) finite splicing systems without additional restrictions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A theory is developed of an electrostatic probe in a fully-ionized plasma in the presence of a strong magnetic field. The ratio of electron Larmor radius to probe transverse dimension is assumed to be small. Poisson's equation, together with kinetic equations for ions and electrons are considered. An asymptotic perturbation method of multiple scales is used by considering the characteristic lengths appearing in the problem. The leading behavior of the solution is found. The results obtained appear to apply to weaker fields also, agreeing with the solutions known in the limit of no magnetic field. The range of potentials for wich results are presented is limited. The basic effects produced by the field are a depletion of the plasma near the probe and a non-monotonic potential surrounding the probe. The ion saturation current is not changed but changes appear in both the floating potential Vf and the slope of the current-voltage diagram at Vf. The transition region extends beyond the space potential Vs,at wich point the current is largely reduced. The diagram does not have an exponential form in this region as commonly assumed. There exists saturation in electron collection. The extent to which the plasma is disturbed is determined. A cylindrical probe has no solution because of a logarithmic singularity at infinity. Extensions of the theory are considered.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A kinetic approach is used to develop a theory of electrostatic probes in a fully ionized plasma in the presence of a magnetic field. A consistent asymptotic expansion is obtained assuming that the electron Larmor radius is small compared to the radius of the probe. The order of magnitude of neglected terms is given. It is found that the electric potential within the tube of force defined by the cross section of the probe decays non-mono tonic ally from the probe; this bump disappears at a certain probe voltage and the theory is valid up to this voltage. The transition region, which extends beyond plasma potential, is not exponential. The possible saturation of the electron current is discussed. Restricted numerical results are given; they seem to be useful for weaker magnetic fields down to the zero-field limit. Extensions of the theory a r e considered.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A novel time-stepping shift-invert algorithm for linear stability analysis of laminar flows in complex geometries is presented. This method, based on a Krylov subspace iteration, enables the solution of complex non-symmetric eigenvalue problems in a matrix-free framework. Validations and comparisons to the classical exponential method have been performed in three different cases: (i) stenotic flow, (ii) backward-facing step and (iii) lid-driven swirling flow. Results show that this new approach speeds up the required Krylov subspace iterations and has the capability of converging to specific parts of the global spectrum. It is shown that, although the exponential method remains the method of choice if leading eigenvalues are sought, the performance of the present method could be dramatically improved with the use of a preconditioner. In addition, as opposed to other methods, this strategy can be directly applied to any time-stepper, regardless of the temporal or spatial discretization of the latter.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La informática teórica es una disciplina básica ya que la mayoría de los avances en informática se sustentan en un sólido resultado de esa materia. En los últimos a~nos debido tanto al incremento de la potencia de los ordenadores, como a la cercanía del límite físico en la miniaturización de los componentes electrónicos, resurge el interés por modelos formales de computación alternativos a la arquitectura clásica de von Neumann. Muchos de estos modelos se inspiran en la forma en la que la naturaleza resuelve eficientemente problemas muy complejos. La mayoría son computacionalmente completos e intrínsecamente paralelos. Por este motivo se les está llegando a considerar como nuevos paradigmas de computación (computación natural). Se dispone, por tanto, de un abanico de arquitecturas abstractas tan potentes como los computadores convencionales y, a veces, más eficientes: alguna de ellas mejora el rendimiento, al menos temporal, de problemas NPcompletos proporcionando costes no exponenciales. La representación formal de las redes de procesadores evolutivos requiere de construcciones, tanto independientes, como dependientes del contexto, dicho de otro modo, en general una representación formal completa de un NEP implica restricciones, tanto sintácticas, como semánticas, es decir, que muchas representaciones aparentemente (sintácticamente) correctas de casos particulares de estos dispositivos no tendrían sentido porque podrían no cumplir otras restricciones semánticas. La aplicación de evolución gramatical semántica a los NEPs pasa por la elección de un subconjunto de ellos entre los que buscar los que solucionen un problema concreto. En este trabajo se ha realizado un estudio sobre un modelo inspirado en la biología celular denominado redes de procesadores evolutivos [55, 53], esto es, redes cuyos nodos son procesadores muy simples capaces de realizar únicamente un tipo de mutación puntual (inserción, borrado o sustitución de un símbolo). Estos nodos están asociados con un filtro que está definido por alguna condición de contexto aleatorio o de pertenencia. Las redes están formadas a lo sumo de seis nodos y, teniendo los filtros definidos por una pertenencia a lenguajes regulares, son capaces de generar todos los lenguajes enumerables recursivos independientemente del grafo subyacente. Este resultado no es sorprendente ya que semejantes resultados han sido documentados en la literatura. Si se consideran redes con nodos y filtros definidos por contextos aleatorios {que parecen estar más cerca a las implementaciones biológicas{ entonces se pueden generar lenguajes más complejos como los lenguajes no independientes del contexto. Sin embargo, estos mecanismos tan simples son capaces de resolver problemas complejos en tiempo polinomial. Se ha presentado una solución lineal para un problema NP-completo, el problema de los 3-colores. Como primer aporte significativo se ha propuesto una nueva dinámica de las redes de procesadores evolutivos con un comportamiento no determinista y masivamente paralelo [55], y por tanto todo el trabajo de investigación en el área de la redes de procesadores se puede trasladar a las redes masivamente paralelas. Por ejemplo, las redes masivamente paralelas se pueden modificar de acuerdo a determinadas reglas para mover los filtros hacia las conexiones. Cada conexión se ve como un canal bidireccional de manera que los filtros de entrada y salida coinciden. A pesar de esto, estas redes son computacionalmente completas. Se pueden también implementar otro tipo de reglas para extender este modelo computacional. Se reemplazan las mutaciones puntuales asociadas a cada nodo por la operación de splicing. Este nuevo tipo de procesador se denomina procesador splicing. Este modelo computacional de Red de procesadores con splicing ANSP es semejante en cierto modo a los sistemas distribuidos en tubos de ensayo basados en splicing. Además, se ha definido un nuevo modelo [56] {Redes de procesadores evolutivos con filtros en las conexiones{ , en el cual los procesadores tan solo tienen reglas y los filtros se han trasladado a las conexiones. Dicho modelo es equivalente, bajo determinadas circunstancias, a las redes de procesadores evolutivos clásicas. Sin dichas restricciones el modelo propuesto es un superconjunto de los NEPs clásicos. La principal ventaja de mover los filtros a las conexiones radica en la simplicidad de la modelización. Otras aportaciones de este trabajo ha sido el dise~no de un simulador en Java [54, 52] para las redes de procesadores evolutivos propuestas en esta Tesis. Sobre el término "procesador evolutivo" empleado en esta Tesis, el proceso computacional descrito aquí no es exactamente un proceso evolutivo en el sentido Darwiniano. Pero las operaciones de reescritura que se han considerado pueden interpretarse como mutaciones y los procesos de filtrado se podrían ver como procesos de selección. Además, este trabajo no abarca la posible implementación biológica de estas redes, a pesar de ser de gran importancia. A lo largo de esta tesis se ha tomado como definición de la medida de complejidad para los ANSP, una que denotaremos como tama~no (considerando tama~no como el número de nodos del grafo subyacente). Se ha mostrado que cualquier lenguaje enumerable recursivo L puede ser aceptado por un ANSP en el cual el número de procesadores está linealmente acotado por la cardinalidad del alfabeto de la cinta de una máquina de Turing que reconoce dicho lenguaje L. Siguiendo el concepto de ANSP universales introducido por Manea [65], se ha demostrado que un ANSP con una estructura de grafo fija puede aceptar cualquier lenguaje enumerable recursivo. Un ANSP se puede considerar como un ente capaz de resolver problemas, además de tener otra propiedad relevante desde el punto de vista práctico: Se puede definir un ANSP universal como una subred, donde solo una cantidad limitada de parámetros es dependiente del lenguaje. La anterior característica se puede interpretar como un método para resolver cualquier problema NP en tiempo polinomial empleando un ANSP de tama~no constante, concretamente treinta y uno. Esto significa que la solución de cualquier problema NP es uniforme en el sentido de que la red, exceptuando la subred universal, se puede ver como un programa; adaptándolo a la instancia del problema a resolver, se escogerín los filtros y las reglas que no pertenecen a la subred universal. Un problema interesante desde nuestro punto de vista es el que hace referencia a como elegir el tama~no optimo de esta red.---ABSTRACT---This thesis deals with the recent research works in the area of Natural Computing {bio-inspired models{, more precisely Networks of Evolutionary Processors first developed by Victor Mitrana and they are based on P Systems whose father is Georghe Paun. In these models, they are a set of processors connected in an underlying undirected graph, such processors have an object multiset (strings) and a set of rules, named evolution rules, that transform objects inside processors[55, 53],. These objects can be sent/received using graph connections provided they accomplish constraints defined at input and output filters processors have. This symbolic model, non deterministic one (processors are not synchronized) and massive parallel one[55] (all rules can be applied in one computational step) has some important properties regarding solution of NP-problems in lineal time and of course, lineal resources. There are a great number of variants such as hybrid networks, splicing processors, etc. that provide the model a computational power equivalent to Turing machines. The origin of networks of evolutionary processors (NEP for short) is a basic architecture for parallel and distributed symbolic processing, related to the Connection Machine as well as the Logic Flow paradigm, which consists of several processors, each of them being placed in a node of a virtual complete graph, which are able to handle data associated with the respective node. All the nodes send simultaneously their data and the receiving nodes handle also simultaneously all the arriving messages, according to some strategies. In a series of papers one considers that each node may be viewed as a cell having genetic information encoded in DNA sequences which may evolve by local evolutionary events, that is point mutations. Each node is specialized just for one of these evolutionary operations. Furthermore, the data in each node is organized in the form of multisets of words (each word appears in an arbitrarily large number of copies), and all the copies are processed in parallel such that all the possible events that can take place do actually take place. Obviously, the computational process just described is not exactly an evolutionary process in the Darwinian sense. But the rewriting operations we have considered might be interpreted as mutations and the filtering process might be viewed as a selection process. Recombination is missing but it was asserted that evolutionary and functional relationships between genes can be captured by taking only local mutations into consideration. It is clear that filters associated with each node allow a strong control of the computation. Indeed, every node has an input and output filter; two nodes can exchange data if it passes the output filter of the sender and the input filter of the receiver. Moreover, if some data is sent out by some node and not able to enter any node, then it is lost. In this paper we simplify the ANSP model considered in by moving the filters from the nodes to the edges. Each edge is viewed as a two-way channel such that the input and output filters coincide. Clearly, the possibility of controlling the computation in such networks seems to be diminished. For instance, there is no possibility to loose data during the communication steps. In spite of this and of the fact that splicing is not a powerful operation (remember that splicing systems generates only regular languages) we prove here that these devices are computationally complete. As a consequence, we propose characterizations of two complexity classes, namely NP and PSPACE, in terms of accepting networks of restricted splicing processors with filtered connections. We proposed a uniform linear time solution to SAT based on ANSPFCs with linearly bounded resources. This solution should be understood correctly: we do not solve SAT in linear time and space. Since any word and auxiliary word appears in an arbitrarily large number of copies, one can generate in linear time, by parallelism and communication, an exponential number of words each of them having an exponential number of copies. However, this does not seem to be a major drawback since by PCR (Polymerase Chain Reaction) one can generate an exponential number of identical DNA molecules in a linear number of reactions. It is worth mentioning that the ANSPFC constructed above remains unchanged for any instance with the same number of variables. Therefore, the solution is uniform in the sense that the network, excepting the input and output nodes, may be viewed as a program according to the number of variables, we choose the filters, the splicing words and the rules, then we assign all possible values to the variables, and compute the formula.We proved that ANSP are computationally complete. Do the ANSPFC remain still computationally complete? If this is not the case, what other problems can be eficiently solved by these ANSPFCs? Moreover, the complexity class NP is exactly the class of all languages decided by ANSP in polynomial time. Can NP be characterized in a similar way with ANSPFCs?

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En todo el mundo se ha observado un crecimiento exponencial en la incidencia de enfermedades crónicas como la hipertensión y enfermedades cardiovasculares y respiratorias, así como la diabetes mellitus, que causa un número de muertes cada vez mayor en todo el mundo (Beaglehole et al., 2008). En concreto, la prevalencia de diabetes mellitus (DM) está aumentando de manera considerable en todas las edades y representa un serio problema de salud mundial. La diabetes fue la responsable directa de 1,5 millones de muertes en 2012 y 89 millones de años de vida ajustados por discapacidad (AVAD) (OMS, 2014). Uno de los principales dilemas que suelen asociarse a la gestión de EC es la adherencia de los pacientes a los tratamientos, que representa un aspecto multifactorial que necesita asistencia en lo relativo a: educación, autogestión, interacción entre los pacientes y cuidadores y compromiso de los pacientes. Medir la adherencia del tratamiento es complicado y, aunque se ha hablado ampliamente de ello, aún no hay soluciones “de oro” (Reviews, 2002). El compromiso de los pacientes, a través de la participación, colaboración, negociación y a veces del compromiso firme, aumentan las oportunidades para una terapia óptima en la que los pacientes se responsabilizan de su parte en la ecuación de adherencia. Comprometer e involucrar a los pacientes diabéticos en las decisiones de su tratamiento, junto con expertos profesionales, puede ayudar a favorecer un enfoque centrado en el paciente hacia la atención a la diabetes (Martin et al., 2005). La motivación y atribución de poder de los pacientes son quizás los dos factores interventores más relevantes que afectan directamente a la autogestión de la atención a la diabetes. Se ha demostrado que estos dos factores desempeñan un papel fundamental en la adherencia a la prescripción, así como en el fomento exitoso de un estilo de vida sana y otros cambios de conducta (Heneghan et al., 2013). Un plan de educación personalizada es indispensable para proporcionarle al paciente las herramientas adecuadas que necesita para la autogestión efectiva de la enfermedad (El-Gayar et al. 2013). La comunicación efectiva es fundamental para proporcionar una atención centrada en el paciente puesto que influye en las conductas y actitudes hacia un problema de salud ((Frampton et al. 2008). En este sentido, la interactividad, la frecuencia, la temporalización y la adaptación de los mensajes de texto pueden promover la adherencia a un régimen de medicación. Como consecuencia, adaptar los mensajes de texto a los pacientes puede resultar ser una manera de hacer que las sugerencias y la información sean más relevantes y efectivas (Nundy et al. 2013). En este contexto, las tecnologías móviles en el ámbito de la salud (mHealth) están desempeñando un papel importante al conectar con pacientes para mejorar la adherencia a medicamentos recetados (Krishna et al., 2009). La adaptación de los mensajes de texto específicos de diabetes sigue siendo un área de oportunidad para mejorar la adherencia a la medicación y ofrecer motivación a adultos con diabetes. Sin embargo, se necesita más investigación para entender totalmente su eficacia. Los consejos de texto personalizados han demostrado causar un impacto positivo en la atribución de poder a los pacientes, su autogestión y su adherencia a la prescripción (Gatwood et al., 2014). mHealth se puede utilizar para ofrecer programas de asistencia de autogestión a los pacientes con diabetes y, al mismo tiempo, superar las dificultades técnicas y financieras que supone el tratamiento de la diabetes (Free at al., 2013). El objetivo principal de este trabajo de investigación es demostrar que un marco tecnológico basado en las teorías de cambios de conducta, aplicado al campo de la mHealth, permite una mejora de la adherencia al tratamiento en pacientes diabéticos. Como método de definición de una solución tecnológica, se han adoptado un conjunto de diferentes técnicas de conducta validadas denominado marco de compromiso de retroacción conductual (EBF, por sus siglas en inglés) para formular los mensajes, guiar el contenido y evaluar los resultados. Los estudios incorporan elementos del modelo transteórico (TTM, por sus siglas en inglés), la teoría de la fijación de objetivos (GST, por sus siglas en inglés) y los principios de comunicación sanitaria persuasiva y eficaz. Como concepto general, el modelo TTM ayuda a los pacientes a progresar a su próxima fase de conducta a través de mensajes de texto motivados específicos y permite que el médico identifique la fase actual y adapte sus estrategias individualmente. Además, se adoptan las directrices del TTM para fijar objetivos personalizados a un nivel apropiado a la fase de cambio del paciente. La GST encierra normas que van a ponerse en práctica para promover la intervención educativa y objetivos de pérdida de peso. Finalmente, los principios de comunicación sanitaria persuasiva y eficaz aplicados a la aparición de los mensajes se han puesto en marcha para aumentar la efectividad. El EBF tiene como objetivo ayudar a los pacientes a mejorar su adherencia a la prescripción y encaminarlos a una mejora general en la autogestión de la diabetes mediante mensajes de texto personalizados denominados mensajes de retroacción automáticos (AFM, por sus siglas en inglés). Después de una primera revisión del perfil, consistente en identificar características significativas del paciente basadas en las necesidades de tratamiento, actitudes y conductas de atención sanitaria, el sistema elige los AFM personalizados, los aprueba el médico y al final se transfieren a la interfaz del paciente. Durante el tratamiento, el usuario recopila los datos en dispositivos de monitorización de pacientes (PMD, por sus siglas en inglés) de una serie de dispositivos médicos y registros manuales. Los registros consisten en la toma de medicación, dieta y actividad física y tareas de aprendizaje y control de la medida del metabolismo. El compromiso general del paciente se comprueba al estimar el uso del sistema y la adherencia del tratamiento y el estado de los objetivos del paciente a corto y largo plazo. El módulo de análisis conductual, que consiste en una serie de reglas y ecuaciones, calcula la conducta del paciente. Tras lograr el análisis conductual, el módulo de gestión de AFM actualiza la lista de AFM y la configuración de los envíos. Las actualizaciones incluyen el número, el tipo y la frecuencia de mensajes. Los AFM los revisa periódicamente el médico que también participa en el perfeccionamiento del tratamiento, adaptado a la fase transteórica actual. Los AFM se segmentan en distintas categorías y niveles y los pacientes pueden ajustar la entrega del mensaje de acuerdo con sus necesidades personales. El EBF se ha puesto en marcha integrado dentro del sistema METABO, diseñado para facilitar al paciente diabético que controle sus condiciones relevantes de una manera menos intrusiva. El dispositivo del paciente se vincula en una plataforma móvil, mientras que una interfaz de panel médico permite que los profesionales controlen la evolución del tratamiento. Herramientas específicas posibilitan que los profesionales comprueben la adherencia del paciente y actualicen la gestión de envíos de AFM. El EBF fue probado en un proyecto piloto controlado de manera aleatoria. El principal objetivo era examinar la viabilidad y aceptación del sistema. Los objetivos secundarios eran también la evaluación de la eficacia del sistema en lo referente a la mejora de la adherencia, el control glucémico y la calidad de vida. Se reclutaron participantes de cuatro centros clínicos distintos en Europa. La evaluación del punto de referencia incluía datos demográficos, estado de la diabetes, información del perfil, conocimiento de la diabetes en general, uso de las plataformas TIC, opinión y experiencia con dispositivos electrónicos y adopción de buenas prácticas con la diabetes. La aceptación y eficacia de los criterios de evaluación se aplicaron para valorar el funcionamiento del marco tecnológico. El principal objetivo era la valoración de la eficacia del sistema en lo referente a la mejora de la adherencia. En las pruebas participaron 54 pacientes. 26 fueron asignados al grupo de intervención y equipados con tecnología móvil donde estaba instalado el EBF: 14 pacientes tenían T1DM y 12 tenían T2DM. El grupo de control estaba compuesto por 25 pa cientes que fueron tratados con atención estándar, sin el empleo del EBF. La intervención profesional tanto de los grupos de control como de intervención corrió a cargo de 24 cuidadores, entre los que incluían diabetólogos, nutricionistas y enfermeras. Para evaluar la aceptabilidad del sistema y analizar la satisfacción de los usuarios, a través de LimeSurvey, se creó una encuesta multilingüe tanto para los pacientes como para los profesionales. Los resultados también se recopilaron de los archivos de registro generados en los PMD, el panel médico profesional y las entradas de la base de datos. Los mensajes enviados hacia y desde el EBF y los archivos de registro del sistema y los servicios de comunicación se grabaron durante las cinco semanas del estudio. Se entregaron un total de 2795 mensajes, lo que supuso una media de 107,50 mensajes por paciente. Como se muestra, los mensajes disminuyen con el tiempo, indicando una mejora global de la adherencia al plan de tratamiento. Como se esperaba, los pacientes con T1DM recibieron más consejos a corto plazo, en relación a su estado. Del mismo modo, al ser el centro de T2DM en cambios de estilo de vida sostenible a largo plazo, los pacientes con T2DM recibieron más consejos de recomendación, en cuanto a dietas y actividad física. También se ha llevado a cabo una comparación de la adherencia e índices de uso para pacientes con T1DM y T2DM, entre la primera y la segunda mitad de la prueba. Se han observado resultados favorables para el uso. En lo relativo a la adherencia, los resultados denotaron una mejora general en cada dimensión del plan de tratamiento, como la nutrición y las mediciones de inserción de glucosa en la sangre. Se han llevado a cabo más estudios acerca del cambio a nivel educativo antes y después de la prueba, medidos tanto para grupos de control como de intervención. Los resultados indicaron que el grupo de intervención había mejorado su nivel de conocimientos mientras que el grupo de control mostró una leve disminución. El análisis de correlación entre el nivel de adherencia y las AFM ha mostrado una mejora en la adherencia de uso para los pacientes que recibieron los mensajes de tipo alertas, y unos resultados no significativos aunque positivos relacionados con la adherencia tanto al tratamiento que al uso correlacionado con los recordatorios. Por otra parte, los AFM parecían ayudar a los pacientes que no tomaban suficientemente en serio su tratamiento en el principio y que sí estaban dispuestos a responder a los mensajes recibidos. Aun así, los pacientes que recibieron demasiadas advertencias, comenzaron a considerar el envío de mensajes un poco estresante. El trabajo de investigación llevado a cabo al desarrollar este proyecto ofrece respuestas a las cuatro hipótesis de investigación que fueron la motivación para el trabajo. • Hipótesis 1 : es posible definir una serie de criterios para medir la adherencia en pacientes diabéticos. • Hipótesis 2: es posible diseñar un marco tecnológico basado en los criterios y teorías de cambio de conducta mencionados con anterioridad para hacer que los pacientes diabéticos se comprometan a controlar su enfermedad y adherirse a planes de atención. • Hipótesis 3: es posible poner en marcha el marco tecnológico en el sector de la salud móvil. • Hipótesis 4: es posible utilizar el marco tecnológico como solución de salud móvil en un contexto real y tener efectos positivos en lo referente a indicadores de control de diabetes. La verificación de cada hipótesis permite ofrecer respuesta a la hipótesis principal: La hipótesis principal es: es posible mejorar la adherencia diabética a través de un marco tecnológico mHealth basado en teorías de cambio de conducta. El trabajo llevado a cabo para responder estas preguntas se explica en este trabajo de investigación. El marco fue desarrollado y puesto en práctica en el Proyecto METABO. METABO es un Proyecto I+D, cofinanciado por la Comisión Europea (METABO 2008) que integra infraestructura móvil para ayudar al control, gestión y tratamiento de los pacientes con diabetes mellitus de tipo 1 (T1DM) y los que padecen diabetes mellitus de tipo 2 (T2DM). ABSTRACT Worldwide there is an exponential growth in the incidence of Chronic Diseases (CDs), such as: hypertension, cardiovascular and respiratory diseases, as well as diabetes mellitus, leading to rising numbers of deaths worldwide (Beaglehole et al. 2008). In particular, the prevalence of diabetes mellitus (DM) is largely increasing among all ages and constitutes a major worldwide health problem. Diabetes was directly responsible for 1,5 million deaths in 2012 and 89 million Disability-adjusted life year (DALYs) (WHO 2014). One of the key dilemmas often associated to CD management is the patients’ adherence to treatments, representing a multi-factorial aspect that requires support in terms of: education, self-management, interaction between patients and caregivers, and patients’ engagement. Measuring adherence is complex and, even if widely discussed, there are still no “gold” standards ((Giardini et al. 2015), (Costa et al. 2015). Patient’s engagement, through participation, collaboration, negotiation, and sometimes compromise, enhance opportunities for optimal therapy in which patients take responsibility for their part of the adherence equation. Engaging and involving diabetic patients in treatment decisions, along with professional expertise, can help foster a patient-centered approach to diabetes care (Martin et al. 2005). Patients’ motivation and empowerment are perhaps the two most relevant intervening factors that directly affect self-management of diabetes care. It has been demonstrated that these two factors play an essential role in prescription adherence, as well as for the successful encouragement of a healthy life-style and other behavioural changes (Heneghan et al. 2013). A personalised education plan is indispensable in order to provide the patient with the appropriate tools needed for the effective self-management of the disease (El-Gayar et al. 2013). Effective communication is at the core of providing patient-centred care since it influences behaviours and attitudes towards a health problem (Frampton et al. 2008). In this regard, interactivity, frequency, timing, and tailoring of text messages may promote adherence to a medication regimen. As a consequence, tailoring text messages to patients can constitute a way of making suggestions and information more relevant and effective (Nundy et al. 2013). In this context, mobile health technologies (mHealth) are playing significant roles in improving adherence to prescribed medications (Krishna et al. 2009). The tailoring of diabetes-specific text messages remains an area of opportunity to improve medication adherence and provide motivation to adults with diabetes but further research is needed to fully understand their effectiveness. Personalized text advices have proven to produce a positive impact on patients’ empowerment, self-management, and adherence to prescriptions (Gatwood et al. 2014). mHealth can be used for offering self-management support programs to diabetes patients and at the same time surmounting the technical and financial difficulties involved in diabetes treatment (Free et al. 2013). The main objective of this research work is to demonstrate that a technological framework, based on behavioural change theories, applied to mHealth domain, allows improving adherence treatment in diabetic patients. The framework, named Engagement Behavioural Feedback Framework (EBF), is built on top of validated behavioural techniques to frame messages, guide the definition of contents and assess outcomes: elements from the Transtheoretical Model (TTM), the Goal-Setting Theory (GST), Effective Health Communication (EHC) guidelines and Principles of Persuasive Technology (PPT) were incorporated. The TTM helps patients to progress to a next behavioural stage, through specific motivated text messages, and allow clinician’s identifying the current stage and tailor its strategies individually. Moreover, TTM guidelines are adopted to set customised goals at a level appropriate to the patient’s stage of change. The GST was used to build rules to be applied for enhancing educational intervention and weight loss objectives. Finally, the EHC guidelines and the PPT were applied to increase the effectiveness of messages. The EBF aims to support patients on improving their prescription adherence and persuade them towards a general improvement in diabetes self-management, by means of personalised text messages, named Automatic Feedback Messages (AFM). After a first profile screening, consisting in identifying meaningful patient characteristics based on treatment needs, attitudes and health care behaviours, customised AFMs are selected by the system, approved by the professional, and finally transferred into the patient interface. During the treatment, the user collects the data into a Patient Monitoring Device (PMD) from a set of medical devices and from manual inputs. Inputs consist in medication intake, diet and physical activity, metabolic measurement monitoring and learning tasks. Patient general engagement is checked by estimating the usage of the system and the adherence of treatment and patient goals status in the short and the long term period. The Behavioural Analysis Module, consisting in a set of rules and equations, calculates the patient’s behaviour. After behavioural analysis is accomplished, the AFM library and the dispatch setting are updated by the AFM Manager module. Updates include the number, the type and the frequency of messages. The AFMs are periodically supervised by the professional who also participates to the refinement of the treatment, adapted to the current transtheoretical stage. The AFMs are segmented in different categories and levels and patients can adjust message delivery in accordance with their personal needs. The EBF was integrated to the METABO system, designed to facilitate diabetic patients in managing their disease in a less intrusive approach. Patient device corresponds in a mobile platform, while a medical panel interface allows professionals to monitoring the treatment evolution. Specific tools allow professional to check patient adherence and to update the AFMs dispatch management. The EBF was tested in a randomised controlled pilot. The main objective was to examine the feasibility and acceptance of the system. Secondary objectives were also the assessment of the effectiveness of system in terms of adherence improvement, glycaemic control, and quality of life. Participants were recruited from four different clinical centres in Europe. The baseline assessment included demographics, diabetes status, profile information, knowledge about diabetes in general, usage of ICT platforms, opinion and experience about electronic devices and adoption of good practices with diabetes. Acceptance and the effectiveness evaluation criteria were applied to evaluate the performance of the technological framework. The main objective was the assessment of the effectiveness of system in terms of adherence improvement. Fifty-four patients participated on the trials. Twenty-six patients were assigned in the intervention group and equipped with mobile where the EBF was installed: 14 patients were T1DM and 12 were T2DM. The control group was composed of 25 patients that were treated through a standard care, without the usage of the EBF. Professional’s intervention for both intervention and control groups was carried out by 24 care providers, including endocrinologists, nutritionists, and nurses. In order to evaluate the system acceptability and analyse the users’ satisfaction, an online multi-language survey, using LimeSurvey, was produced for both patients and professionals. Results were also collected from the log-files generated in the PMDs, the professional medical panel and the entries of the data base. The messages sent to and from the EBF and the log-files of the system and communication services were recorded over 5 weeks of the study. A total of 2795 messages were submitted, representing an average of 107,50 messages per patient. As demonstrated, messages decrease over time indicating an overall improvement of the care plan’s adherence. As expected, T1DM patients were more loaded with short-term advices, in accordance with their condition. Similarly, being the focus of T2DM on long-term sustainable lifestyle changes, T2DM received more reminders advices, as for diet and physical activity. Favourable outcomes were observed for treatment and usage adherences of the intervention group: for both the adherence indices, results denoted a general improvement on each care plan’s dimension, such as on nutrition and blood glucose input measurements. Further studies were conducted on the change on educational level before and after the trial, measured for both control and intervention groups. The outcomes indicated the intervention group has improved its level of knowledge, while the control group denoted a low decrease. The correlation analysis between the level of adherences and the AFMs showed an improvement in usage adherence for patients who received warnings message, while non-significantly yet even positive indicators related to both treatment and usage adherence correlated with the Reminders. Moreover, the AFMs seemed to help those patients who did not take their treatment seriously enough in the beginning and who were willing to respond to the messages they received. Even though, patients who received too many Warnings, started to consider the message dispatch to be a bit stressful. The research work carried out in developing this research work provides responses to the four research hypothesis that were the motivation for the work: •Hypothesis 1: It is possible to define a set of criteria to measure adherence in diabetic patients. •Hypothesis 2: It is possible to design a technological framework, based on the aforementioned criteria and behavioural change theories, to engage diabetic patients in managing their disease and adhere to care plans. •Hypothesis 3: It is possible to implement the technological framework in the mobile health domain. •Hypothesis 4: It is possible to use the technological framework as a mobile health solution in a real context and have positive effects in terms of diabetes management indicators. The verification of each hypothesis allowed us to provide a response to the main hypothesis: The Main Hypothesis is: It is possible to improve diabetic adherence through a mHealth technological framework based on behavioural change theories. The work carried out to answer these questions is explained in this research work. The framework was developed and applied in the METABO project. METABO is an R&D project, co-funded by the European Commission (METABO 2008) that integrates mobile infrastructure for supporting the monitoring, management, and treatment of type 1 diabetes mellitus (T1DM) and type 2 diabetes mellitus (T2DM) patients.