999 resultados para 512 Algebra, teoría de los números
Resumo:
La mirada sobre la última dictadura militar en Argentina ha variado significativamente desde la llegada de la democracia hasta la actualidad. Las visiones que las novelas proponen sobre estos temas son similares a las que pueden rastrearse en los ensayos, pero la polifonía y la distancia entre los discursos de los personajes y sus autores permiten una problematización densa sobre ciertos tópicos que se presentan, así, de manera más transgresora que en la ensayística. En la perspectiva reciente podemos encontrar textualidades distanciadas tanto de la "teoría de los dos demonios" como de la glorificación de la lucha armada. La aproximación a la novela de Ernesto Semán Soy un bravo piloto de la nueva China y al ensayo de Mariana Caviglia Dictadura, clases medias y vida cotidiana. Una sociedad fracturada nos permiten acercarnos a un punto de vista distintivo del campo intelectual argentino contemporáneo. Este enfoque, propio de una perspectiva generacional de aquellos que crecieron bajo el "proceso" y llegaron a la adultez en los '90, incluye una mirada desencantada hacia el proceso revolucionario, una concentración en la esfera micro y la vida privada y, a través de un proceso de extrañamiento, un rechazo al uso de la violencia
Resumo:
El trabajo se propone revisar algunas vías de recepción de la obra piagetiana en Argentina, principalmente a partir de la figura de un actor clave y representativo de una generación de nuestro país: Aníbal Norberto Ponce. Partimos de la hipótesis que afirma que en Argentina, la obra de la Escuela de Ginebra ha sido recepcionada principalmente con un doble interés convalidante. Por una parte, el de la fundamentación teórica que las hipótesis piagetianas aportaron a la pedagogía nueva; por otra, la referida al rol central e ineludible que las lecturas de la obra adquirieron, a mediados de siglo XX, para pensar una Psicología evolutiva orientada a la infancia. La matriz que definió el experimentalismo positivista a comienzos de siglo XX no fue reemplazada por otra de nuevo cuño, sino que fue la que albergó demanera ecléctica la recepción de las investigaciones psicológicas que contenían la crítica al paradigma de la ?física social. En el cruce entre las concepciones naturalistas de la psicología y la emergencia de paradigmas orientados por el 'sentido' (Foucault, 1957) es donde debemos situar las lecturas tempranas de la obra piagetiana. Las primeras lecturas de Piaget durante la primera mitad del siglo XX muestran una apropiación estructuralista, siendo comprendido, fundamentalmente, desde la dimensión evolutiva de la llamada 'teoría de los estadios'. La figura de Aníbal Ponce (1898-1938), difusor de las ideas de Marx y de Engels en nuestro país y pensador interesado en los problemas de la psicología de su época - psicología sobre la que enseñó y escribió en las décadas de 1920 y 1930-, es un caso paradigmático de los usos que se hacen, en este periodo, de la Escuela de Ginebra. Ponce efectúa una precoz lectura, análisis y transmisión de las tesis de la Psicología Genética a través de sus textos, y difunde este pensamiento en los cursos dictados a docentes en el Instituto Nacional del Profesorado y a un público más amplio en el Colegio Libre de Estudios Superiores. El hecho de que Ponce utilice a Piaget como referencia central para delinear sus cursos para docentes, es elocuente respecto del grupo de problemas al cual se vinculan sus investigaciones. Fiel a la perspectiva de la época, no concibe una práctica de la enseñanza que no se encuentre sustentada en el conocimiento científico de las características del pensamiento infantil, y allí sitúa el interés delas investigaciones ginebrinas. En los trabajos poncianos pueden reconocerse algunas de las interpretaciones más recurrentes de las ideas piagetianas: la de una especie de recapitulación de la filogeniaen la ontogenia -muy a pesar de su explícita oposición al recapitulacionismo-, y la de la caracterización de 'etapas' que describen las habilidades o características infantiles generales, en función de una edad. Esta perspectiva se convertirá, con los años, en un clisé de lectura que tomará las investigaciones piagetianas como una fuente de descripciones generales acerca de lo que puede esperarse o no, en la conducta de un niño de determinada edad. La predominancia de la dimensión estructural de este enfoque, queda evidenciada en el hecho de tomar al estadio como descriptor asociado a una edad, y explicativo por sí mismo, para cualquier tipo de operaciones intelectuales implicadas. En estas breves notas sobre la obra ponciana se encuentran algunas de las líneas de pensamiento predominantes en Argentina y Latinoamérica (Van der Veer, 1997). Partiendo de un modelo que recorre el trayecto que va del egocentrismo a la descentración, se trazan las líneas de una 'psicología de las edades', que presenta a Piaget como el referente de ese pasaje que garantiza todo intercambio social. La lectura estructural y evolutiva sitúa a Piaget entre las figuras de la psicología infantil, leída en clave teleológica, que pretende dar cuenta del pasaje de la irracionalidad primitiva a la racionalidad moderna y adulta. A pesar de los escasos estudios referidos a la psicología ponciana, creemos que es innegable la importancia de este autor para comprender la recepción y transmisión de la obra de Piaget, como antecedente de la Psicología del Desarrollo en Argentina
Resumo:
Este trabajo analiza interjecciones, onomatopeyas y sonidos inarticulados, para determinar los alcances y las limitaciones de los corpora informatizados. Existen varios estudios sobre sus características orales desde la dicotomía oralidad/escritura. No obstante, dichos elementos tienen una alta frecuencia de uso en contextos hipertextuales. Utilizamos la teoría de los prototipos, porque permite plantear pasajes y límites borrosos entre las categorías. Estudiamos 'ay', 'ah','uy', 'ja', 'brrr', tomando las muestras del CREA, Davies, de la versión virtual de El Día y de páginas de internet. Hay elementos ('ja'), que en contextos hipertextuales se subjetivizan y se especializan en vehiculizar diferentes actitudes del hablante
Resumo:
En el presente trabajo se han analizado los modelos tensión-deslizamiento más divulgados para estudiar las tensiones en la interfase FRP-Hormigón y la carga máxima mediante su irapíementación en una de las principales técnicas de cálculo numérico fácilmente programable y aplicable para el caso en el que se tiene tracción en ambos extremos de la banda FRP. Los resultados se comparan con las soluciones analíticas encontradas en la literatura, las cuales están limitadas a los casos de una función tensión-deslizamiento lineal y bilineal. Finalmente, se contrasta la teoría con los resultados experimentales obtenidos de ensayos de tipología análoga al método beamtest empleado comúnmente para medir la adherencia de barras de acero.
Resumo:
Se ha caracterizado la infiltración de un suelo colocado en una columna de suelo de metacrilato, de base hexagonal de diagonal 1 m y 0,6 m de alto, con una densidad aparente de 1,5 g/cm3. El procedimiento utilizado ha sido la fibra óptica y el método denominado “Active Heating pulse method with Fiber Optic temperature sensing” AHFO method, que consiste en emitir un pulso óptico con láser y medir en el tiempo la señal reflejada, de baja intensidad, en diferentes puntos de la fibra óptica. Del espectro de luz reflejada solamente un rango de frecuencias específico, determinado por análisis de frecuencia, se correlaciona con la temperatura. La precisión en la medida es de ± 0,1ºC en una distancia de ± 12,5 cm. En el interior de la columna se colocó el cable de fibra óptica formando tres hélices concéntricas separadas 20 cm , 40 cm y 60 cm del centro. Asimismo, se cubrió la superficie del suelo con una altura media de agua que osciló entre 1,5 a 2,5 cm a lo largo de los 140 min que duró el proceso de calentamiento del cable. El incremento de temperatura antes y después del calentamiento se utilizó para determinar la infiltración instantánea a partir de la expresión de Perzlmaeir et al (2004) y de los números adimensional de Nusselt y Prandtl. Considerando los errores inherentes al procedimiento de cálculo, los resultados muestran que el AHFO method es una herramienta útil en el estudio de la variabilidad espacial de la infiltración en el suelo que permite, además, determinar su valor. Asimismo, muestra su potencial para incluir dichas estimaciones en la calibración de modelos relacionados con la gestión de recursos hídricos.
Resumo:
La tesis MEDIDAS AUTOSEMEJANTES EN EL PLANO, MOMENTOS Y MATRICES DE HESSENBERG se enmarca entre las áreas de la teoría geométrica de la medida, la teoría de polinomios ortogonales y la teoría de operadores. La memoria aborda el estudio de medidas con soporte acotado en el plano complejo vistas con la óptica de las matrices infinitas de momentos y de Hessenberg asociadas a estas medidas que en la teoría de los polinomios ortogonales las representan. En particular se centra en el estudio de las medidas autosemejantes que son las medidas de equilibrio definidas por un sistema de funciones iteradas (SFI). Los conjuntos autosemejantes son conjuntos que tienen la propiedad geométrica de descomponerse en unión de piezas semejantes al conjunto total. Estas piezas pueden solaparse o no, cuando el solapamiento es pequeño la teoría de Hutchinson [Hut81] funciona bien, pero cuando no existen restricciones falla. El problema del solapamiento consiste en controlar la medida de este solapamiento. Un ejemplo de la complejidad de este problema se plantea con las convoluciones infinitas de distribuciones de Bernoulli, que han resultado ser un ejemplo de medidas autosemejantes en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaba este problema, lejos de ser sencillo ha sido estudiado durante más de setenta y cinco años y siguen sin resolverse las principales cuestiones planteadas ya por A. Garsia [Gar62] en 1962. El interés que ha despertado este problema así como la complejidad del mismo está demostrado por las numerosas publicaciones que abordan cuestiones relacionadas con este problema ver por ejemplo [JW35], [Erd39], [PS96], [Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05],[JKS07] [JKS11]. En el primer capítulo comenzamos introduciendo con detalle las medidas autosemejante en el plano complejo y los sistemas de funciones iteradas, así como los conceptos de la teoría de la medida necesarios para describirlos. A continuación se introducen las herramientas necesarias de teoría de polinomios ortogonales, matrices infinitas y operadores que se van a usar. En el segundo y tercer capítulo trasladamos las propiedades geométricas de las medidas autosemejantes a las matrices de momentos y de Hessenberg, respectivamente. A partir de estos resultados se describen algoritmos para calcular estas matrices a partir del SFI correspondiente. Concretamente, se obtienen fórmulas explícitas y algoritmos de aproximación para los momentos y matrices de momentos de medidas fractales, a partir de un teorema del punto fijo para las matrices. Además utilizando técnicas de la teoría de operadores, se han extendido al plano complejo los resultados que G. Mantica [Ma00, Ma96] obtenía en el caso real. Este resultado es la base para definir un algoritmo estable de aproximación de la matriz de Hessenberg asociada a una medida fractal u obtener secciones finitas exactas de matrices Hessenberg asociadas a una suma de medidas. En el último capítulo, se consideran medidas, μ, más generales y se estudia el comportamiento asintótico de los autovalores de una matriz hermitiana de momentos y su impacto en las propiedades de la medida asociada. En el resultado central se demuestra que si los polinomios asociados son densos en L2(μ) entonces necesariamente el autovalor mínimo de las secciones finitas de la matriz de momentos de la medida tiende a cero. ABSTRACT The Thesis work “Self-similar Measures on the Plane, Moments and Hessenberg Matrices” is framed among the geometric measure theory, orthogonal polynomials and operator theory. The work studies measures with compact support on the complex plane from the point of view of the associated infinite moments and Hessenberg matrices representing them in the theory of orthogonal polynomials. More precisely, it concentrates on the study of the self-similar measures that are equilibrium measures in a iterated functions system. Self-similar sets have the geometric property of being decomposable in a union of similar pieces to the complete set. These pieces can overlap. If the overlapping is small, Hutchinson’s theory [Hut81] works well, however, when it has no restrictions, the theory does not hold. The overlapping problem consists in controlling the measure of the overlap. The complexity of this problem is exemplified in the infinite convolutions of Bernoulli’s distributions, that are an example of self-similar measures in the real case. As early as 1935 [JW35], Jessen and Wintner posed this problem, that far from being simple, has been studied during more than 75 years. The main cuestiones posed by Garsia in 1962 [Gar62] remain unsolved. The interest in this problem, together with its complexity, is demonstrated by the number of publications that over the years have dealt with it. See, for example, [JW35], [Erd39], [PS96], [Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11]. In the first chapter, we will start with a detailed introduction to the self-similar measurements in the complex plane and to the iterated functions systems, also including the concepts of measure theory needed to describe them. Next, we introduce the necessary tools from orthogonal polynomials, infinite matrices and operators. In the second and third chapter we will translate the geometric properties of selfsimilar measures to the moments and Hessenberg matrices. From these results, we will describe algorithms to calculate these matrices from the corresponding iterated functions systems. To be precise, we obtain explicit formulas and approximation algorithms for the moments and moment matrices of fractal measures from a new fixed point theorem for matrices. Moreover, using techniques from operator theory, we extend to the complex plane the real case results obtained by Mantica [Ma00, Ma96]. This result is the base to define a stable algorithm that approximates the Hessenberg matrix associated to a fractal measure and obtains exact finite sections of Hessenberg matrices associated to a sum of measurements. In the last chapter, we consider more general measures, μ, and study the asymptotic behaviour of the eigenvalues of a hermitian matrix of moments, together with its impact on the properties of the associated measure. In the main result we demonstrate that, if the associated polynomials are dense in L2(μ), then necessarily follows that the minimum eigenvalue of the finite sections of the moments matrix goes to zero.
Resumo:
This thesis investigates the acoustic properties of microperforated panels as an alternative to passive noise control. The first chapters are devoted to the review of analytical models to obtain the acoustic impedance and absorption coefficient of perforated panels. The use of panels perforated with circular holes or with slits is discussed. The theoretical models are presented and some modifications are proposed to improve the modeling of the physical phenomena occurring at the perforations of the panels. The absorption band is widened through the use of multiple layer microperforated panels and/or the combination of a millimetric panel with a porous layer that can be a fibrous material or a nylon mesh. A commercial micrometric mesh downstream a millimetric panel is proposed as a very efficient and low cost solution for controlling noise in reduced spaces. The simulated annealing algorithm is used in order to optimize the panel construction to provide a maximum of absorption in a determined wide band frequency range. Experiments are carried out at normal sound incidence and plane waves. One example is shown for a double layer microperforated panel subjected to grazing flow. A good agreement is achieved between the theory and the experiments. RESUMEN En esta tesis se investigan las propiedades acústicas de paneles micro perforados como una alternativa al control pasivo del ruido. Los primeros capítulos están dedicados a la revisión de los modelos de análisis para obtener la impedancia acústica y el coeficiente de absorción de los paneles perforados. El uso de paneles perforados con agujeros circulares o con ranuras es discutido. Se presentan diferentes modelos y se proponen algunas modificaciones para mejorar la modelización de los fenómenos físicos que ocurren en las perforaciones. La banda de absorción se ensancha a través del uso de capas múltiples de paneles micro perforados y/o la combinación de un panel de perforaciones milimétricas combinado con una capa porosa que puede ser un material fibroso o una malla de nylon. Se propone el uso de una malla micrométrica detrás de un panel milimétrico como una solución económica y eficiente para el control del ruido en espacios reducidos. El algoritmo de recocido simulado se utiliza con el fin de optimizar la construcción de paneles micro perforados para proporcionar un máximo de absorción en una banda determinada frecuencias. Los experimentos se llevan a cabo en la incidencia normal de sonido y ondas planas. Se muestra un ejemplo de panel micro perforado de doble capa sometido a flujo rasante. Se consigue un buen acuerdo entre la teoría y los experimentos.
Resumo:
Monilinia spp. (M. laxa, M. fructigena y M. fructicola) causa marchitez en brotes y flores, chancros en ramas y podredumbre de la fruta de hueso provocando pérdidas económicas importantes en años con climatología favorable para el desarrollo de la enfermedad, particularmente en variedades tardías de melocotonero y nectarino. En estos huéspedes en España, hasta el momento, la especie predominante es M. laxa y, en menor proporción, M. fructigena. La reciente introducción en Europa de la especie de cuarentena M. fructicola hace necesaria una detección e identificación rápida de cada una de las especies. Además, hay diversos aspectos de la etiología y epidemiología de la enfermedad que no se conocen en las condiciones de cultivo españolas. En un primer objetivo de esta Tesis se ha abordado la detección e identificación de las especies de Monilinia spp. causantes de podredumbre parda. El estudio de las bases epidemiológicas para el control de la enfermedad constituye el fin del segundo objetivo. Para la detección del género Monilinia en material vegetal por PCR, diferenciándolo de otros hongos presentes en la superficie del melocotonero, se diseñaron una pareja de cebadores siguiendo un análisis del ADN ribosomal. La discriminación entre especies de Monilinia se consiguió utilizando marcadores SCAR (región amplificada de secuencia caracterizada), obtenidos después de un estudio de marcadores polimórficos de ADN amplificados al azar (RAPDs). También fue diseñado un control interno de amplificación (CI) basado en la utilización de un plásmido con secuencias de los cebadores diferenciadores del género, para ser utilizado en el protocolo de diagnóstico de la podredumbre parda con el fin de reconocer falsos negativos debidos a la inhibición de PCR por componentes celulares del material vegetal. Se disponía de un kit comercial que permitía distinguir Monilinia de otros géneros y M. fructicola del resto de especies mediante anticuerpos monoclonales utilizando la técnica DAS-ELISA. En esta Tesis se probaron diferentes fuentes de material como micelio ó conidias procedentes de cultivos en APD, o el micelio de la superficie de frutas o de momias frescas, como formas de antígeno. Los resultados obtenidos con ELISA se compararon con la identificación por métodos morfológico-culturales y por PCR con los cebadores desarrollados en esta Tesis. Los resultados demostraron la posibilidad de una detección temprana en frutas frescas por este método, realzando las posibilidades de una diagnosis temprana para una prevención más eficaz de M. fructicola en fruta de hueso. El estudio epidemiológico de la enfermedad comenzó con la determinación de las principales fuentes de inóculo primario y su importancia relativa en melocotoneros y nectarinos del valle del Ebro. Para ello se muestrearon 9 huertos durante los años 2003 a 2005 recogiendo todas las momias, frutos abortados, gomas, chancros, y brotes necróticos en los árboles. También se recogieron brotes aparentemente sanos y muestras de material vegetal situados en el suelo. En estas muestras se determinó la presencia de Monilinia spp. Los resultados mostraron que la fuente principal de inóculo son las momias que se quedan en los árboles en las que la supervivencia del hongo tras el invierno es muy alta. También son fuentes de inóculo las momias del suelo y los brotes necróticos. De aquí se deriva que una recomendación importante para los agricultores es que deben eliminar este material de los huertos. Un aspecto no estudiado en melocotonero o nectarino en España es la posible relación que puede darse entre la incidencia de infecciones latentes en los frutos inmaduros a lo largo del cultivo y la incidencia de podredumbre en los frutos en el momento de la recolección y en postcosecha. Esta relación se había observado previamente en otros frutales de hueso infectados con M. fructicola en diversos países del mundo. Para estudiar esta relación se realizaron ensayos en cinco huertos comerciales de melocotonero y nectarino situados en el Valle del Ebro en cuatro estados fenológicos durante los años 2000-2002. No se observaron infecciones latentes en botón rosa, dándose la máxima incidencia en precosecha, aunque en algunos huertos se daba otro pico en el endurecimiento del embrión. La especie prevaleciente fue M. laxa. Se obtuvo una correlación positiva significativa entre la incidencia de infecciones latentes y la incidencia de podredumbre en postcosecha. Se desarrolló también un modelo de predicción de las infecciones latentes en función de la temperatura (T) y el periodo de humectación (W). Este modelo indicaba que T y W explicaban el 83% de la variación en la incidencia de infecciones latentes causadas por Monilinia spp. Por debajo de 8ºC no se predecían latentes, necesitándose más de 22h de W para predecir la ocurrencia de latentes con T = 8ºC, mientras que solo se necesitaban 5h de W a 25ºC. Se hicieron también ensayos en condiciones controladas para determinar la relación entre la incidencia de las infecciones latentes, las condiciones ambientales (T y W), la concentración de inóculo del patógeno (I) y el estado de desarrollo del huésped (S) y para validar el modelo de predicción desarrollado con los experimentos de campo. Estos ensayos se llevaron cabo con flores y frutos de nectarino procedentes de un huerto comercial en seis estados fenológicos en los años 2004 y 2005, demostrándose que la incidencia de podredumbre en postcosecha y de infecciones latentes estaba afectada por T, W, I y S. En los frutos se producían infecciones latentes cuando la T no era adecuada para el desarrollo de podredumbre. Una vez desarrollado el embrión eran necesarias más de 4-5h de W al día y un inóculo superior a 104 conidias ml-1 para que se desarrollase o podredumbre o infección latente. La ecuación del modelo obtenido con los datos de campo era capaz de predecir los datos observados en estos experimentos. Para evaluar el efecto del inóculo de Monilinia spp. en la incidencia de infecciones latentes y de podredumbre de frutos en postcosecha se hicieron 11 experimentos en huertos comerciales de melocotonero y nectarino del Valle del Ebro durante 2002 a 2005. Se observó una correlación positiva entre los números de conidias de Monilinia spp. en la superficie de los frutos y la incidencia de infecciones latentes De los estudios anteriores se deducen otras dos recomendaciones importantes para los agricultores: las estrategias de control deben tener en cuenta las infecciones latentes y estimar el riesgo potencial de las mismas basándose en la T y W. Deben tener también en cuenta la concentración de esporas de Monilinia spp. en la superficie de los frutos para disminuir el riesgo de podredumbre parda. El conocimiento de la estructura poblacional de los patógenos sienta las bases para establecer métodos más eficaces de manejo de las enfermedades. Por ello en esta Tesis se ha estudiado el grado de diversidad genética entre distintas poblaciones de M. laxa en diferentes localidades españolas utilizando 144 marcadores RAPDs (59 polimórficos y 85 monomórficos) y 21 aislados. El análisis de la estructura de la población reveló que la diversidad genética dentro de las subpoblaciones (huertos) (HS) representaba el 97% de la diversidad genética (HT), mientras que la diversidad genética entre subpoblaciones (DST) sólo representaba un 3% del total de esta diversidad. La magnitud relativa de la diferenciación génica entre subpoblaciones (GST) alcanzaba 0,032 y el número estimado de migrantes por generación (Nm) fue de 15,1. Los resultados obtenidos en los dendrogramas estaban de acuerdo con el análisis de diversidad génica. Las agrupaciones obtenidas eran independientes del huerto de procedencia, año o huésped. En la Tesis se discute la importancia relativa de las diferentes fuentes evolutivas en las poblaciones de M. laxa. Finalmente se realizó un muestreo en distintos huertos de melocotonero y nectarino del Valle del Ebro para determinar la existencia o no de aislados resistentes a los fungicidas del grupo de los benzimidazoles y las dicarboximidas, fungicidas utilizados habitualmente para el control de la podredumbre parda y con alto riesgo de desarrollar resistencia en las poblaciones patógenas. El análisis de 114 aislados de M. laxa con los fungicidas Benomilo (bencimidazol) (1Bg m.a ml-1), e Iprodiona (dicarboximida) (5Bg m.a ml-1), mostró que ninguno era resistente en las dosis ensayadas. Monilinia spp. (M. laxa, M. fructigena and M. fructicola) cause bud and flower wilt, canker in branches and stone fruit rot giving rise important economic losses in years with appropriate environmental conditions, it is particularly important in late varieties of peach and nectarine. Right now, M. laxa is the major species for peach and nectarine in Spain followed by M. fructigena, in a smaller proportion. The recent introduction of the quarantine organism M. fructicola in Europe makes detection and identification of each one of the species necessary. In addition, there are different aspects of disease etiology and epidemiology that are not well known in Spain conditions. The first goal of this Thesis was the detection and identification of Monilinia spp. causing brown rot. Study of the epidemiology basis for disease control was the second objective. A pair of primers for PCR detection was designed based on the ribosomal DNA sequence in order to detect Monilinia spp. in plant material and to discriminate it from other fungi colonizing peach tree surface. Discrimination among Monilinia spp. was successful by SCAR markers (Sequence Characterized Amplified Region), obtained after a random amplified polymorphic DNA markers (RAPDs) study. An internal control for the PCR (CI) based on the use of a mimic plasmid designed on the primers specific for Monilinia was constructed to be used in diagnosis protocol for brown rot in order to avoid false negatives due to the inhibition of PCR as consequence of remained plant material. A commercial kit based on DAS-ELISA and monoclonals antibodies was successfully tested to distinguish Monilinia from other fungus genera and M. fructicola from other Monilinia species. Different materials such as micelium or conidias from APD cultures, or micelium from fresh fruit surfaces or mummies were tested in this Thesis, as antigens. Results obtained by ELISA were compared to classical identification by morphologic methods and PCR with the primers developed in this Thesis. Results demonstrated the possibility of an early detection in fresh fruits by this method for a more effective prevention of M. fructicola in stone fruit. The epidemiology study of the disease started with the determination of the main sources of primary inoculum and its relative importance in peach trees and nectarines in the Ebro valley. Nine orchards were evaluated during years 2003 to 2005 collecting all mummies, aborted fruits, rubbers, cankers, and necrotic buds from the trees. Apparently healthy buds and plant material located in the ground were also collected. In these samples presence of Monilinia spp. was determined. Results showed that the main inoculum sources are mummies that stay in the trees and where fungus survival after the winter is very high. Mummies on the ground and the necrotics buds are also sources of inoculum. As consequence of this an important recommendation for the growers is the removal of this material of the orchards. An important issue not well studied in peach or nectarine in Spain is the possible relationship between the incidence of latent infections in the immature fruits and the incidence of fruit rot at harvesting and postharvesting. This relationship had been previously shown in other stone fruit trees infected with M. fructicola in different countries over the world. In order to study this relationship experiments were run in five commercial peach and nectarine orchards located in the Ebro Valley in four phenologic states from 2000 to 2002. Latent infections were not observed in pink button, the maxima incidence arise in preharvest, although in some orchards another increase occurred in the embryo hardening. The most prevalence species was M. laxa. A significant positive correlation between the incidence of latent infections and the incidence of rot in postharvest was obtained. A prediction model of the latent infections based on the temperature (T) and the wetness duration (W) was also developed. This model showed that T and W explained 83% of the variation in latent infection incidence caused by Monilinia spp. Below 8ºC latent infection was not predicted, more than 22h of W with T = 8ºC were needed to predict latent infection occurrence of, whereas at 25ºC just 5h of W were enough. Tests under controlled conditions were also made to determine the relationship among latent infections incidence, environmental conditions (T and W), inoculum concentration of the pathogen (I) and development state of the host (S) to validate the prediction model developed on the field experiments. These tests were made with flowers and fruits of nectarine coming from a commercial orchard, in six phenologic states in 2004 and 2005, showing that incidence of rot in postharvest and latent infections were affected by T, W, I and S. In fruits latent infections took place when the T was not suitable for rot development. Once developed the embryo, more than 4-5h of W per day and higher inoculums (104 conidia ml-1) were necessary for rot or latent infection development. The equation of the model obtained with the field data was able to predict the data observed in these experiments. In order to evaluate the effect of inoculum of Monilinia spp. in the incidence of latent infections and of rot of fruits in postharvest, 11 experiments in commercial orchards of peach and nectarine of the Ebro Valley were performed from 2002 to 2005. A positive correlation between the conidial numbers of Monilinia spp. in the surface of the fruits and the incidence of latent infections was observed. Based on those studies other two important recommendations for the agriculturists are deduced: control strategies must consider the latent infections and potential risk based on the T and W. Spores concentration of Monilinia spp. in the surface of fruits must be also taken in concern to reduce the brown rot risk. The knowledge of the population structure of the pathogens determines the bases to establish more effective methods of diseases handling. For that reason in this Thesis the degree of genetic diversity among different M. laxa populations has been studied in different Spanish locations using 144 RAPDs markers (59 polymorphic and 85 monomorphics) on 21 fungal isolates. The analysis of the structure of the population revealed that the genetic diversity within the subpopulations (orchards) (HS) represented 97% of the genetic diversity (HT), whereas the genetic diversity between subpopulations (DST) only represented a 3% of the total of this diversity. The relative magnitude of the genic differentiation between subpopulations (GST) reached 0.032 and the considered number of migrantes by generation (Nm) was of 15.1. The results obtained in dendrograms were in agreement with the analysis of genic diversity. The obtained groupings were independent of the orchard of origin, year or host. In the Thesis the relative importance of the different evolutionary sources in the populations from M. laxa is discussed. Finally a sampling of resistant isolates in different orchards from peach and nectarine of Ebro Valley was made to determine the existence of fungicide resistance of the group of benzimidazoles and the dicarboximidas, fungicides used habitually for the control of rot brown and with high risk of resistance developing in the pathogenic populations. The analysis of 114 isolated ones of M. laxa with the fungicides Benomilo (bencimidazol) (1Bg m.a ml-1), and Iprodiona (dicarboximida) (5Bg m.a ml-1), showed no resistant in the doses evaluated.
Resumo:
En un artículo anterior (1) se trató del cultivo del cacahuete en España, sus problemas y las posibilidades de mecanización del mismo. El presente trabajo presenta los estudios y ensayos realizados durante las pasadas campañas de 1972 y 1973, los cuales muestran la realidad de esas soluciones mecánicas en pequeña y en gran escala. Puede realizarse un cultivo de cacahuete total o casi totalmente mecanizado, tanto en el caso de grandes superficies como en parcelas del tamaño medio (alrededor de 1/2 ha), usual en la región valenciana, utilizando medios mecánicos naturalmente adaptados a cada tipo de explotación. En fincas pequeñas, cuyos medios mecánicos se basan en el motocultor y / o en el tractor pequeño de 18- 20 CV, es adecuado sembrar el cacahuete en surcos separados 62,5 cm, lo que permite la realización de las labores de forma mecanizada por medio de este tractor con las ruedas en la posición más estrecha. Así puede realizarse la siembra, el cultivo y el arranque con los distintos aperos. La trilla y la limpieza pueden realizarse manualmente o por medio de una cosechadora de alquiler arrastrada por un tractor mayor Los números entre paréntesis se refieren a las reseñas bibliográficas. (ver Recolección en el próximo número) de 1,25 m de anchura. En las explotaciones mayores, con tractores grandes, la siembra adecuada será en líneas pareadas, siendo la distancia entre surcos 125-180 cm, según variedades y según se cultive en regadío o en secano (1), o en mesetas de unos 190 cm, con cuatro filas de plantas. La mecanización en estos casos está mejor adaptada y más justificada económicamente. Para el cultivo mecánico habrán de elegirse, dentro de las variedades existentes, las más adecuadas. Las cultivadas actualmente en la zona valenciana están muy degeneradas y es necesaria su mejora, pero están bien adaptadas a las condiciones climáticas y resultan bastante adecuadas para su mecanización. Algunas variedades americanas ensayadas en el INIA (Benicalap, Valencia), muy atractivas por sus frutos grandes y de gran calidad, vienen de origen adaptadas a la mecanización, pero por ser en general de ciclo largo, presentan problemas en relación a la climatología de la zona; en las experiencias realizadas se han dado campañas de extraordinaria producción y otras de una producción muy baja. Para el cultivo de estas variedades se hace realmente necesaria la recolección mecanizada, a base de arranque con arrancadora, uno o dos días de secado en el campo, recogida y trilla con cosechadora y desecación artificial. Todo ello con el fin de 3 abreviar lo más posible el proceso, evitando el peligro de que las lluvias mojen repetidamente las plantas una vez arrancadas y colocadas en hileras en el campo para su desecación natural. Esto último viene siendo la causa de unas pérdidas de cosecha enormes por pudrición de los frutos.
Resumo:
Los sistemas basados en la técnica OFDM (Multiplexación por División de Frecuencias Ortogonales) son una evolución de los tradicionales sistemas FDM (Multiplexación por División de Frecuencia), gracias a la cual se consigue un mejor aprovechamiento del ancho de banda. En la actualidad los sistemas OFDM y sus variantes ocupan un lugar muy importante en las comunicaciones, estando implementados en diversos estándares como pueden ser: DVB-T (estándar de la TDT), ADSL, LTE, WIMAX, DAB (radio digital), etc. Debido a ello, en este proyecto se implementa un sistema OFDM en el que poder realizar diversas simulaciones para entender mejor su funcionamiento. Para ello nos vamos a valer de la herramienta Matlab. Los objetivos fundamentales dentro de la simulación del sistema es poner a prueba el empleo de turbo códigos (comparándolo con los códigos convolucionales tradicionales) y de un ecualizador. Todo ello con la intención de mejorar la calidad de nuestro sistema (recibir menos bits erróneos) en condiciones cada vez más adversas: relaciones señal a ruido bajas y multitrayectos. Para ello se han implementado las funciones necesarias en Matlab, así como una interfaz gráfica para que sea más sencillo de utilizar el programa y más didáctico. En los capítulos segundo y tercero de este proyecto se efectúa un estudio de las bases de los sistemas OFDM. En el segundo nos centramos más en un estudio teórico puro para después pasar en el tercero a centrarnos únicamente en la teoría de los bloques implementados en el sistema OFDM que se desarrolla en este proyecto. En el capítulo cuarto se explican las distintas opciones que se pueden llevar a cabo mediante la interfaz implementada, a la vez que se elabora un manual para el correcto uso de la misma. El quinto capítulo se divide en dos partes, en la primera se muestran las representaciones que puede realizar el programa, y en la segunda únicamente se realizan simulaciones para comprobar que tal responde nuestra sistema a distintas configuraciones de canal, y las a distintas configuraciones que hagamos nosotros de nuestro sistema (utilicemos una codificación u otra, utilicemos el ecualizador o el prefijo cíclico, etc…). Para finalizar, en el último capítulo se exponen las conclusiones obtenidas en este proyecto, así como posibles líneas de trabajo que seguir en próximas versiones del mismo. ABSTRACT. Systems based on OFDM (Orthogonal Frequency Division Multiplexing) technique are an evolution of traditional FDM (Frequency Division Multiplexing). Due to the use of OFDM systems are achieved by more efficient use of bandwidth. Nowadays, OFDM systems and variants of OFDM systems occupy a very important place in the world of communications, being implemented in standards such as DVB-T, ADSL, LTE, WiMAX, DAB (digital radio) and another more. For all these reasons, this project implements a OFDM system for performing various simulations for better understanding of OFDM system operation. The system has been simulated using Matlab. With system simulation we search to get two key objectives: to test the use of turbo codes (compared to traditional convolutional codes) and an equalizer. We do so with the intention of improving the quality of our system (receive fewer rates of bit error) in increasingly adverse conditions: lower signal-to-noise and multipath. For these reasons necessaries Matlab´s functions have been developed, and a GUI (User Graphical Interface) has been integrated so the program can be used in a easier and more didactic way. This project is divided into five chapters. In the second and third chapter of this project are developed the basis of OFDM systems. Being developed in the second one a pure theoretical study, while focusing only on block theory implemented in the OFDM system in the third one. The fourth chapter describes the options that can be carried out by the interface implemented. Furthermore the chapter is developed for the correct use of the interface. The fifth chapter is divided into two parts, the first part shows to us the representations that the program can perform, and the second one just makes simulations to check that our system responds to differents channel configurations (use of convolutional codes or turbo codes, the use of equalizer or cyclic prefix…). Finally, the last chapter presents the conclusions of this project and possible lines of work to follow in future versions.
Resumo:
En el mundo actual el cambio tecnológico es uno de los factores determinantes del desarrollo económico. Según los estudiosos de la teoría de los ciclos económicos el período comprendido entre 1960 y la actualidad constituye la fase terminal de un ciclo económico de larga duración. Esta fase se caracterizaría por el agotamiento de las aportaciones de las tecnologías disponibles y el consiguiente descenso del ritmo innovador de productos. De acuerdo con esta teoría de los ciclos, la fase terminal depresiva coincide con el periodo en que se generan las nuevas tecnologías que constituirán la base de desarrollo del ciclo siguiente. En consecuencia el potencial de crecimiento económico español dependerá fundamentalmente del ritmo de incorporación de la nueva base tecnológica a su actividad económica. Los estudios teóricos y empíricos indican que el próximo ciclo de actividad se basará en un pequeño número de avances clave: tecnología de la información, biotecnología y tecnologías de nuevos materiales.
Resumo:
En nuestra cultura, asumimos el error como algo vergonzoso, como un resultado ajeno a nuestra consciente autoría. Normalmente queremos desentendernos de él, pues se suele asociar a que ha sido el resultado de un accidente involuntario. Sin embargo, también es cierto que se suele usar como un mecanismo que despierta nuestro humor, la curiosidad, el extrañamiento y la sorpresa. El error en nuestra cultura se esconde en inverosímiles mensajes que nos rodean. Si se toma como ejemplo los errores que se encierran en la serie humorística de dibujos animados "El-coyote-y-el-correcaminos"1, se puede descubrir las numerosas consecuencias y actitudes encriptadas donde el error participa. A modo resumen estos son cinco de los mensajes capturados donde los errores participan. 1- El Coyote, siempre hambriento, y con ganas de atrapar al Correcaminos, tiene una gran variedad de modos acercamiento y decisiones de caza. Las tácticas parecen perfectas pero siempre tienen un error que, aunque hacen que no lleguen a su fin, cada vez son más divertidas y locas. El Coyote se enfrenta continuamente al cómo hacerlo con una creatividad, tan abierta como errada. 2- El Correcaminos en cambio, inconscientemente es capaz de usar las trampas que construye el Coyote sin que estás funcionen. Sin saber que pueden atraparle, las usa como si supiera que el no va a errar. El Coyote en cambio es incapaz de hacer esto, y las trampas siempre se vuelven contra él. 3- El Coyote en ocasiones se ve inmiscuido en un proceso de construcción de trampas laborioso. Este proceso, a su vez, también suele estar cargado de errores. A pesar de que por ensayo y error termina haciendo las cosas como preveía, todo acaba saltando por los aires y no funciona. 4- Más allá de los fallos constructivos de las trampas de caza, el Coyote erra a menudo cuando piensa que es “normal”, es decir se da cuenta que no puede hacer unas series de cosas y finalmente no las hace. Por ejemplo, unas veces en medio del aire cae porque piensa que le afecta la gravedad, otras, justo cuando va a atrapar el Correcaminos se extraña por ser más rápido y al final no lo consigue. 5- Por último, el Coyote cansado de artilugios, recurre a la estrategia. Asume que el Correcaminos es más rápido que él y por ello le dibuja en una pared un túnel con una carretera. El Correcaminos entonces, utiliza el túnel o la carretera como uno ya existente se tratara. Mientras, el Coyote sorprendido intenta seguirlo pero no puede, se choca con la pared, cae en su propia trampa. De estos lugares que se encuentran en la cultura y donde campa el error, se sirve la tesis para localizar su correspondencia con la arquitectura. Por lo que se plantean estos contextos de estudio: 1- La historia de la arquitectura está llena de diferentes modos de hacer y tomar decisiones, de proyecto. Existen diversos planteamientos para enfrentarse a una teoría y una práctica. Todos parecen seguros y certeros, en cambio se tiene la convicción de que no es así. La historia de la arquitectura siempre ha sido tan caótica, divertida y llena de errores como son los autores que la construyen. De ahí que se plantee la búsqueda de los errores en el estudio de la teoría de los conocimientos y procesos lógicos que han guiado a la ciencia hasta donde estamos hoy, la búsqueda del error en la arquitectura a través del error en la epistemología. 2- En la cotidianidad de la arquitectura se "juntan" dibujos hechos en planta con los hechos en sección, se viaja por los planos buscando referencias de secciones, se buscan entradas o salidas, se llevan parcialidades de una planta a otra, se leen pies de plano para interpretar lo que ocurre, se dialoga sobre un proyecto buscando un concepto, se montan volúmenes de documentos que te lo dan en planta, se intentan comprender situaciones volumétricas de dibujos en hechos en "2d" o se intenta comprender un montaje gravitatorio. Situaciones donde somos conscientes y otras no, donde se pone en marcha un ejercicio mental de acoplamiento estructural de todas las partes que se “juntan”, a pesar de que estas entre sí no estén realmente relacionadas y sí llenas de errores. Aprovechándose de la confianza del intercambio de información, los errores se cuelan hasta el final y no llegamos a reconocerlos. 3- En la arquitectura uno de los modos más habituales de enfrentarse al proyecto es a través del método de ensayo y error, a través del cual se hacen continuos dibujos o maquetas, una y otra vez. En arquitectura es común necesitar de la insistencia para localizar algo, reiterar la búsqueda de un deseo. Cada una de ellas con modificaciones de la anterior, con nuevas posibilidades y tanteos. Afrontar este proceso más allá de lo que es enfrentarse a un error, encierra actitudes, voluntades, potencialidades y afecciones diferentes entre sí. A la vez, este ejercicio, suele ser personal, por lo que cada acción de ensayo y error es difícil que se deba a un sólo nivel de funcionamiento, hay factores que se escapan del control o de la previsibilidad. Aunque a priori parece que el proceso por ensayo y error en el hacer arquitectónico intenta eliminar el error, hay ocasiones donde éste desvela nuevas posibilidades. 4- Las fichas de patologías de los edificios en arquitectura suelen ser documentos técnicos que aluden a los problemas constructivos de manera directa; humedades, grietas, fisuras, desprendimientos. Errores constructivos que sin embargo se olvidan de lo que pueden ser “errores arquitectónicos”. Es decir, el proceso de construcción, la espacialidad, el programa, el contexto o la iluminación se pueden trabar erróneamente, pero no necesariamente con fallos constructivos. Errores arquitectónicos que no se suelen registrar como tal. Se cree que hay un mundo de arquitectura patológica que va más allá de la situación de la normalidad edificatoria que se suele tratar. Errores integrados en el hacer arquitectónico que han terminado por generar una arquitectura singular pero no excéntrica, anormal y difícilmente genérica. Arquitecturas creadas bajo un “error de vida”, las cuales demuestran que se pueden alcanzar equilibrios ajenos a los que la razón habitual impone en el hacer. 5- Es también común en la arquitectura, la capacidad de proyectar futuro a través de los diferentes campos de oportunidad que se generan. Las oportunidades unas veces las ofrecen las normativas, pero otras son los errores que estas tienen las que se convierten en resquicios para construir realidades que se escapan a sus rigideces. Alturas máximas, edificaciones límites, espacios libres, alineaciones de fachada, programa permitido…, normalmente leyes de control que se imponen en la ciudad y que a veces se convierten en un modo de dominación. Reglas que antes de su puesta en funcionamiento se creen cerradas y lógicas e infranqueables, pero en su puesta en uso, empiezan a errar. Los resultados no salen como debían, y las palabras son interpretadas de forma diferente, por lo que el usuario empieza a aprovecharse de estos errores como vía de escape sobre ellas. Una vez planteados estos cinco lugares vinculados a sistemas arquitectónicos y que a la vez encierran de alguna forma la mirada positiva que en ocasiones la cultura ofrece, cabría ser más específicos y plantearse la pregunta: .Como el error ha sido y puede ser productivo en la arquitectura? Para responder en estos cinco contextos descritos y habituales en el hacer arquitectónico, se crean cinco “planos secuencia” como respuesta. Que usados como técnica de planificación de un pensamiento, permiten responder sin cortes y durante un tiempo prolongado reflexiones concatenadas entre sí. De este modo, los cinco planos secuencias son respuestas a la pregunta pero desde distintos ámbitos. Respuestas donde los resultados del error no avergüenzan a la arquitectura, sino que animan a usarlo, a experimentar con ello. Los planos secuencias son una cantera que contiene las marcas de los errores, tanto de un pasado como de un futuro inmanente. Un modo de ordenar la información, donde el tiempo no es una marca de linealidad cronológica, sino la búsqueda hacia delante y hacia atrás de la maduración de un concepto.
Resumo:
Existe una creciente necesidad de hacer el mejor uso del agua para regadío. Una alternativa eficiente consiste en la monitorización del contenido volumétrico de agua (θ), utilizando sensores de humedad. A pesar de existir una gran diversidad de sensores y tecnologías disponibles, actualmente ninguna de ellas permite obtener medidas distribuidas en perfiles verticales de un metro y en escalas laterales de 0.1-1,000 m. En este sentido, es necesario buscar tecnologías alternativas que sirvan de puente entre las medidas puntuales y las escalas intermedias. Esta tesis doctoral se basa en el uso de Fibra Óptica (FO) con sistema de medida de temperatura distribuida (DTS), una tecnología alternativa de reciente creación que ha levantado gran expectación en las últimas dos décadas. Específicamente utilizamos el método de fibra calentada, en inglés Actively Heated Fiber Optic (AHFO), en la cual los cables de Fibra Óptica se utilizan como sondas de calor mediante la aplicación de corriente eléctrica a través de la camisa de acero inoxidable, o de un conductor eléctrico simétricamente posicionado, envuelto, alrededor del haz de fibra óptica. El uso de fibra calentada se basa en la utilización de la teoría de los pulsos de calor, en inglés Heated Pulsed Theory (HPP), por la cual el conductor se aproxima a una fuente de calor lineal e infinitesimal que introduce calor en el suelo. Mediante el análisis del tiempo de ocurrencia y magnitud de la respuesta térmica ante un pulso de calor, es posible estimar algunas propiedades específicas del suelo, tales como el contenido de humedad, calor específico (C) y conductividad térmica. Estos parámetros pueden ser estimados utilizando un sensor de temperatura adyacente a la sonda de calor [método simple, en inglés single heated pulsed probes (SHPP)], ó a una distancia radial r [método doble, en inglés dual heated pulsed probes (DHPP)]. Esta tesis doctoral pretende probar la idoneidad de los sistemas de fibra óptica calentada para la aplicación de la teoría clásica de sondas calentadas. Para ello, se desarrollarán dos sistemas FO-DTS. El primero se sitúa en un campo agrícola de La Nava de Arévalo (Ávila, España), en el cual se aplica la teoría SHPP para estimar θ. El segundo sistema se desarrolla en laboratorio y emplea la teoría DHPP para medir tanto θ como C. La teoría SHPP puede ser implementada con fibra óptica calentada para obtener medidas distribuidas de θ, mediante la utilización de sistemas FO-DTS y el uso de curvas de calibración específicas para cada suelo. Sin embargo, la mayoría de aplicaciones AHFO se han desarrollado exclusivamente en laboratorio utilizando medios porosos homogéneos. En esta tesis se utiliza el programa Hydrus 2D/3D para definir tales curvas de calibración. El modelo propuesto es validado en un segmento de cable enterrado en una instalación de fibra óptica y es capaz de predecir la respuesta térmica del suelo en puntos concretos de la instalación una vez que las propiedades físicas y térmicas de éste son definidas. La exactitud de la metodología para predecir θ frente a medidas puntuales tomadas con sensores de humedad comerciales fue de 0.001 a 0.022 m3 m-3 La implementación de la teoría DHPP con AHFO para medir C y θ suponen una oportunidad sin precedentes para aplicaciones medioambientales. En esta tesis se emplean diferentes combinaciones de cables y fuentes emisoras de calor, que se colocan en paralelo y utilizan un rango variado de espaciamientos, todo ello en el laboratorio. La amplitud de la señal y el tiempo de llegada se han observado como funciones del calor específico del suelo. Medidas de C, utilizando esta metodología y ante un rango variado de contenidos de humedad, sugirieron la idoneidad del método, aunque también se observaron importantes errores en contenidos bajos de humedad de hasta un 22%. La mejora del método requerirá otros modelos más precisos que tengan en cuenta el diámetro del cable, así como la posible influencia térmica del mismo. ABSTRACT There is an increasing need to make the most efficient use of water for irrigation. A good approach to make irrigation as efficient as possible is to monitor soil water content (θ) using soil moisture sensors. Although, there is a broad range of different sensors and technologies, currently, none of them can practically and accurately provide vertical and lateral moisture profiles spanning 0-1 m depth and 0.1-1,000 m lateral scales. In this regard, further research to fulfill the intermediate scale and to bridge single-point measurement with the broaden scales is still needed. This dissertation is based on the use of Fiber Optics with Distributed Temperature Sensing (FO-DTS), a novel approach which has been receiving growing interest in the last two decades. Specifically, we employ the so called Actively Heated Fiber Optic (AHFO) method, in which FO cables are employed as heat probe conductors by applying electricity to the stainless steel armoring jacket or an added conductor symmetrically positioned (wrapped) about the FO cable. AHFO is based on the classic Heated Pulsed Theory (HPP) which usually employs a heat probe conductor that approximates to an infinite line heat source which injects heat into the soil. Observation of the timing and magnitude of the thermal response to the energy input provide enough information to derive certain specific soil thermal characteristics such as the soil heat capacity, soil thermal conductivity or soil water content. These parameters can be estimated by capturing the soil thermal response (using a thermal sensor) adjacent to the heat source (the heating and the thermal sources are mounted together in the so called single heated pulsed probe (SHPP)), or separated at a certain distance, r (dual heated pulsed method (DHPP) This dissertation aims to test the feasibility of heated fiber optics to implement the HPP theory. Specifically, we focus on measuring soil water content (θ) and soil heat capacity (C) by employing two types of FO-DTS systems. The first one is located in an agricultural field in La Nava de Arévalo (Ávila, Spain) and employ the SHPP theory to estimate θ. The second one is developed in the laboratory using the procedures described in the DHPP theory, and focuses on estimating both C and θ. The SHPP theory can be implemented with actively heated fiber optics (AHFO) to obtain distributed measurements of soil water content (θ) by using reported soil thermal responses in Distributed Temperature Sensing (DTS) and with a soil-specific calibration relationship. However, most reported AHFO applications have been calibrated under laboratory homogeneous soil conditions, while inexpensive efficient calibration procedures useful in heterogeneous soils are lacking. In this PhD thesis, we employ the Hydrus 2D/3D code to define these soil-specific calibration curves. The model is then validated at a selected FO transect of the DTS installation. The model was able to predict the soil thermal response at specific locations of the fiber optic cable once the surrounding soil hydraulic and thermal properties were known. Results using electromagnetic moisture sensors at the same specific locations demonstrate the feasibility of the model to detect θ within an accuracy of 0.001 to 0.022 m3 m-3. Implementation of the Dual Heated Pulsed Probe (DPHP) theory for measurement of volumetric heat capacity (C) and water content (θ) with Distributed Temperature Sensing (DTS) heated fiber optic (FO) systems presents an unprecedented opportunity for environmental monitoring. We test the method using different combinations of FO cables and heat sources at a range of spacings in a laboratory setting. The amplitude and phase-shift in the heat signal with distance was found to be a function of the soil volumetric heat capacity (referred, here, to as Cs). Estimations of Cs at a range of θ suggest feasibility via responsiveness to the changes in θ (we observed a linear relationship in all FO combinations), though observed bias with decreasing soil water contents (up to 22%) was also reported. Optimization will require further models to account for the finite radius and thermal influence of the FO cables, employed here as “needle probes”. Also, consideration of the range of soil conditions and cable spacing and jacket configurations, suggested here to be valuable subjects of further study and development.
Resumo:
La idea de dotar a un grupo de robots o agentes artificiales de un lenguaje ha sido objeto de intenso estudio en las ultimas décadas. Como no podía ser de otra forma los primeros intentos se enfocaron hacia el estudio de la emergencia de vocabularios compartidos convencionalmente por el grupo de robots. Las ventajas que puede ofrecer un léxico común son evidentes, como también lo es que un lenguaje con una estructura más compleja, en la que se pudieran combinar palabras, sería todavía más beneficioso. Surgen así algunas propuestas enfocadas hacia la emergencia de un lenguaje consensuado que muestre una estructura sintáctica similar al lenguaje humano, entre las que se encuentra este trabajo. Tomar el lenguaje humano como modelo supone adoptar algunas de las hipótesis y teorías que disciplinas como la filosofía, la psicología o la lingüística entre otras se han encargado de proponer. Según estas aproximaciones teóricas el lenguaje presenta una doble dimension formal y funcional. En base a su dimensión formal parece claro que el lenguaje sigue unas reglas, por lo que el uso de una gramática se ha considerado esencial para su representación, pero también porque las gramáticas son un dispositivo muy sencillo y potente que permite generar fácilmente estructuras simbólicas. En cuanto a la dimension funcional se ha tenido en cuenta la teoría quizá más influyente de los últimos tiempos, que no es otra que la Teoría de los Actos del Habla. Esta teoría se basa en la idea de Wittgenstein por la que el significado reside en el uso del lenguaje, hasta el punto de que éste se entiende como una manera de actuar y de comportarse, en definitiva como una forma de vida. Teniendo presentes estas premisas en esta tesis se pretende experimentar con modelos computacionales que permitan a un grupo de robots alcanzar un lenguaje común de manera autónoma, simplemente mediante interacciones individuales entre los robots, en forma de juegos de lenguaje. Para ello se proponen tres modelos distintos de lenguaje: • Un modelo basado en gramáticas probabilísticas y aprendizaje por refuerzo en el que las interacciones y el uso del lenguaje son claves para su emergencia y que emplea una gramática generativa estática y diseñada de antemano. Este modelo se aplica a dos grupos distintos: uno formado exclusivamente por robots y otro que combina robots y un humano, de manera que en este segundo caso se plantea un aprendizaje supervisado por humanos. • Un modelo basado en evolución gramatical que permite estudiar no solo el consenso sintáctico, sino también cuestiones relativas a la génesis del lenguaje y que emplea una gramática universal a partir de la cual los robots pueden evolucionar por sí mismos la gramática más apropiada según la situación lingüística que traten en cada momento. • Un modelo basado en evolución gramatical y aprendizaje por refuerzo que toma aspectos de los anteriores y amplia las posibilidades de los robots al permitir desarrollar un lenguaje que se adapta a situaciones lingüísticas dinámicas que pueden cambiar en el tiempo y también posibilita la imposición de restricciones de orden muy frecuentes en las estructuras sintácticas complejas. Todos los modelos implican un planteamiento descentralizado y auto-organizado, de manera que ninguno de los robots es el dueño del lenguaje y todos deben cooperar y colaborar de forma coordinada para lograr el consenso sintáctico. En cada caso se plantean experimentos que tienen como objetivo validar los modelos propuestos, tanto en lo relativo al éxito en la emergencia del lenguaje como en lo relacionado con cuestiones paralelas de importancia, como la interacción hombre-máquina o la propia génesis del lenguaje. ABSTRACT The idea of giving a language to a group of robots or artificial agents has been the subject of intense study in recent decades. The first attempts have focused on the development and emergence of a conventionally shared vocabulary. The advantages that can provide a common vocabulary are evident and therefore a more complex language that combines words would be even more beneficial. Thus some proposals are put forward towards the emergence of a consensual language with a sintactical structure in similar terms to the human language. This work follows this trend. Taking the human language as a model means taking some of the assumptions and theories that disciplines such as philosophy, psychology or linguistics among others have provided. According to these theoretical positions language has a double formal and functional dimension. Based on its formal dimension it seems clear that language follows rules, so that the use of a grammar has been considered essential for representation, but also because grammars are a very simple and powerful device that easily generates these symbolic structures. As for the functional dimension perhaps the most influential theory of recent times, the Theory of Speech Acts has been taken into account. This theory is based on the Wittgenstein’s idea about that the meaning lies in the use of language, to the extent that it is understood as a way of acting and behaving. Having into account these issues this work implements some computational models in order to test if they allow a group of robots to reach in an autonomous way a shared language by means of individual interaction among them, that is by means of language games. Specifically, three different models of language for robots are proposed: • A reinforcement learning based model in which interactions and language use are key to its emergence. This model uses a static probabilistic generative grammar which is designed beforehand. The model is applied to two different groups: one formed exclusively by robots and other combining robots and a human. Therefore, in the second case the learning process is supervised by the human. • A model based on grammatical evolution that allows us to study not only the syntactic consensus, but also the very genesis of language. This model uses a universal grammar that allows robots to evolve for themselves the most appropriate grammar according to the current linguistic situation they deal with. • A model based on grammatical evolution and reinforcement learning that takes aspects of the previous models and increases their possibilities. This model allows robots to develop a language in order to adapt to dynamic language situations that can change over time and also allows the imposition of syntactical order restrictions which are very common in complex syntactic structures. All models involve a decentralized and self-organized approach so that none of the robots is the language’s owner and everyone must cooperate and work together in a coordinated manner to achieve syntactic consensus. In each case experiments are presented in order to validate the proposed models, both in terms of success about the emergence of language and it relates to the study of important parallel issues, such as human-computer interaction or the very genesis of language.
Resumo:
En el presente artículo se discuten tres corrientes teóricas alter-nativas al cognitivismo, para explicar el desarrollo hacia la pericia en el ám-bito del aprendizaje y del control motor en deporte, haciendo especial énfa-sis en el enactivismo. En la primera parte se tratan las principales nociones de la psicología ecológica, como la regulación del movimiento, la percep-ción directa o la reciprocidad entre percepción y acción. A continuación se explican las principales aportaciones de la teoría de los sistemas dinámicos a la comprensión de la coordinación del movimiento, de la emergencia de la motricidad y de la interacción de las diferentes variables o restricciones. En el siguiente apartado, se expone el enfoque enactivo como una extensión conceptual proveniente de las ciencias cognitivas y que trasciende a los otros paradigmas. Desde esta orientación, se aboga por una fusión entre el cuerpo y la mente del deportista que es indisociable al medio ambiente y que se opone al dualismo y reduccionismo imperante. Por último, se pre-sentan algunas directrices y aplicaciones de investigaciones enactivas que en la actualidad están en pleno desarrollo. Palabras clave: Enactivismo; cognición; acoplamiento información-movimiento; post-cognitivismo; deporte; pericia.