42 resultados para Clasificación del hábitat


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los modelos de simulación de cultivos permiten analizar varias combinaciones de laboreo-rotación y explorar escenarios de manejo. El modelo DSSAT fue evaluado bajo condiciones de secano en un experimento de campo de 16 años en la semiárida España central. Se evaluó el efecto del sistema de laboreo y las rotaciones basadas en cereales de invierno, en el rendimiento del cultivo y la calidad del suelo. Los modelos CERES y CROPGRO se utilizaron para simular el crecimiento y rendimiento del cultivo, mientras que el modelo DSSAT CENTURY se utilizó en las simulaciones de SOC y SN. Tanto las observaciones de campo como las simulaciones con CERES-Barley, mostraron que el rendimiento en grano de la cebada era mas bajo para el cereal continuo (BB) que para las rotaciones de veza (VB) y barbecho (FB) en ambos sistemas de laboreo. El modelo predijo más nitrógeno disponible en el laboreo convencional (CT) que en el no laboreo (NT) conduciendo a un mayor rendimiento en el CT. El SOC y el SN en la capa superficial del suelo, fueron mayores en NT que en CT, y disminuyeron con la profundidad en los valores tanto observados como simulados. Las mejores combinaciones para las condiciones de secano estudiadas fueron CT-VB y CT-FB, pero CT presentó menor contenido en SN y SOC que NT. El efecto beneficioso del NT en SOC y SN bajo condiciones Mediterráneas semiáridas puede ser identificado por observaciones de campo y por simulaciones de modelos de cultivos. La simulación del balance de agua en sistemas de cultivo es una herramienta útil para estudiar como el agua puede ser utilizado eficientemente. La comparación del balance de agua de DSSAT , con una simple aproximación “tipping bucket”, con el modelo WAVE más mecanicista, el cual integra la ecuación de Richard , es un potente método para valorar el funcionamiento del modelo. Los parámetros de suelo fueron calibrados usando el método de optimización global Simulated Annealing (SA). Un lisímetro continuo de pesada en suelo desnudo suministró los valores observados de drenaje y evapotranspiración (ET) mientras que el contenido de agua en el suelo (SW) fue suministrado por sensores de capacitancia. Ambos modelos funcionaron bien después de la optimización de los parámetros de suelo con SA, simulando el balance de agua en el suelo para el período de calibración. Para el período de validación, los modelos optimizados predijeron bien el contenido de agua en el suelo y la evaporación del suelo a lo largo del tiempo. Sin embargo, el drenaje fue predicho mejor con WAVE que con DSSAT, el cual presentó mayores errores en los valores acumulados. Esto podría ser debido a la naturaleza mecanicista de WAVE frente a la naturaleza más funcional de DSSAT. Los buenos resultados de WAVE indican que, después de la calibración, este puede ser utilizado como "benchmark" para otros modelos para periodos en los que no haya medidas de campo del drenaje. El funcionamiento de DSSAT-CENTURY en la simulación de SOC y N depende fuertemente del proceso de inicialización. Se propuso como método alternativo (Met.2) la inicialización de las fracciones de SOC a partir de medidas de mineralización aparente del suelo (Napmin). El Met.2 se comparó con el método de inicialización de Basso et al. (2011) (Met.1), aplicando ambos métodos a un experimento de campo de 4 años en un área en regadío de España central. Nmin y Napmin fueron sobreestimados con el Met.1, ya que la fracción estable obtenida (SOC3) en las capas superficiales del suelo fue más baja que con Met.2. El N lixiviado simulado fue similar en los dos métodos, con buenos resultados en los tratamientos de barbecho y cebada. El Met.1 subestimó el SOC en la capa superficial del suelo cuando se comparó con una serie observada de 12 años. El crecimiento y rendimiento del cultivo fueron adecuadamente simulados con ambos métodos, pero el N en la parte aérea de la planta y en el grano fueron sobreestimados con el Met.1. Los resultados variaron significativamente con las fracciones iniciales de SOC, resaltando la importancia del método de inicialización. El Met.2 ofrece una alternativa para la inicialización del modelo CENTURY, mejorando la simulación de procesos de N en el suelo. La continua emergencia de nuevas variedades de híbridos modernos de maíz limita la aplicación de modelos de simulación de cultivos, ya que estos nuevos híbridos necesitan ser calibrados en el campo para ser adecuados para su uso en los modelos. El desarrollo de relaciones basadas en la duración del ciclo, simplificaría los requerimientos de calibración facilitando la rápida incorporación de nuevos cultivares en DSSAT. Seis híbridos de maiz (FAO 300 hasta FAO 700) fueron cultivados en un experimento de campo de dos años en un área semiárida de regadío en España central. Los coeficientes genéticos fueron obtenidos secuencialmente, comenzando con los parámetros de desarrollo fenológico (P1, P2, P5 and PHINT), seguido de los parámetros de crecimiento del cultivo (G2 and G3). Se continuó el procedimiento hasta que la salida de las simulaciones estuvo en concordancia con las observaciones fenológicas de campo. Después de la calibración, los parámetros simulados se ajustaron bien a los parámetros observados, con bajos RMSE en todos los casos. Los P1 y P5 calibrados, incrementaron con la duración del ciclo. P1 fue una función lineal del tiempo térmico (TT) desde emergencia hasta floración y P5 estuvo linealmente relacionada con el TT desde floración a madurez. No hubo diferencias significativas en PHINT entre híbridos de FAO-500 a 700 , ya que tuvieron un número de hojas similar. Como los coeficientes fenológicos estuvieron directamente relacionados con la duración del ciclo, sería posible desarrollar rangos y correlaciones que permitan estimar dichos coeficientes a partir de la clasificación del ciclo. ABSTRACT Crop simulation models allow analyzing various tillage-rotation combinations and exploring management scenarios. DSSAT model was tested under rainfed conditions in a 16-year field experiment in semiarid central Spain. The effect of tillage system and winter cereal-based rotations on the crop yield and soil quality was evaluated. The CERES and CROPGRO models were used to simulate crop growth and yield, while the DSSAT CENTURY was used in the SOC and SN simulations. Both field observations and CERES-Barley simulations, showed that barley grain yield was lower for continuous cereal (BB) than for vetch (VB) and fallow (FB) rotations for both tillage systems. The model predicted higher nitrogen availability in the conventional tillage (CT) than in the no tillage (NT) leading to a higher yield in the CT. The SOC and SN in the top layer, were higher in NT than in CT, and decreased with depth in both simulated and observed values. The best combinations for the dry land conditions studied were CT-VB and CT-FB, but CT presented lower SN and SOC content than NT. The beneficial effect of NT on SOC and SN under semiarid Mediterranean conditions can be identified by field observations and by crop model simulations. The simulation of the water balance in cropping systems is a useful tool to study how water can be used efficiently. The comparison of DSSAT soil water balance, with a simpler “tipping bucket” approach, with the more mechanistic WAVE model, which integrates Richard’s equation, is a powerful method to assess model performance. The soil parameters were calibrated by using the Simulated Annealing (SA) global optimizing method. A continuous weighing lysimeter in a bare fallow provided the observed values of drainage and evapotranspiration (ET) while soil water content (SW) was supplied by capacitance sensors. Both models performed well after optimizing soil parameters with SA, simulating the soil water balance components for the calibrated period. For the validation period, the optimized models predicted well soil water content and soil evaporation over time. However, drainage was predicted better by WAVE than by DSSAT, which presented larger errors in the cumulative values. That could be due to the mechanistic nature of WAVE against the more functional nature of DSSAT. The good results from WAVE indicate that, after calibration, it could be used as benchmark for other models for periods when no drainage field measurements are available. The performance of DSSAT-CENTURY when simulating SOC and N strongly depends on the initialization process. Initialization of the SOC pools from apparent soil N mineralization (Napmin) measurements was proposed as alternative method (Met.2). Method 2 was compared to the Basso et al. (2011) initialization method (Met.1), by applying both methods to a 4-year field experiment in a irrigated area of central Spain. Nmin and Napmin were overestimated by Met.1, since the obtained stable pool (SOC3) in the upper layers was lower than from Met.2. Simulated N leaching was similar for both methods, with good results in fallow and barley treatments. Method 1 underestimated topsoil SOC when compared with a 12-year observed serial. Crop growth and yield were properly simulated by both methods, but N in shoots and grain were overestimated by Met.1. Results varied significantly with the initial SOC pools, highlighting the importance of the initialization procedure. Method 2 offers an alternative to initialize the CENTURY model, enhancing the simulation of soil N processes. The continuous emergence of new varieties of modern maize hybrids limits the application of crop simulation models, since these new hybrids should be calibrated in the field to be suitable for model use. The development of relationships based on the cycle duration, would simplify the calibration requirements facilitating the rapid incorporation of new cultivars into DSSAT. Six maize hybrids (FAO 300 through FAO 700) were grown in a 2-year field experiment in a semiarid irrigated area of central Spain. Genetic coefficients were obtained sequentially, starting with the phenological development parameters (P1, P2, P5 and PHINT), followed by the crop growth parameters (G2 and G3). The procedure was continued until the simulated outputs were in good agreement with the field phenological observations. After calibration, simulated parameters matched observed parameters well, with low RMSE in most cases. The calibrated P1 and P5 increased with the duration of the cycle. P1 was a linear function of the thermal time (TT) from emergence to silking and P5 was linearly related with the TT from silking to maturity . There were no significant differences in PHINT between hybrids from FAO-500 to 700 , as they had similar leaf number. Since phenological coefficients were directly related with the cycle duration, it would be possible to develop ranges and correlations which allow to estimate such coefficients from the cycle classification.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El tema de estudio de esta tesis son las propuestas urbanas que Andrea Branzi ha desarrollado durante los últimos cincuenta años, centrándose especialmente en aquellas más elaboradas y completas: la No-Stop City (1970-71), que elabora como miembro del grupo radical Archizoom, y dos de sus modelos de urbanización débil, Agronica (1995) y el Master Plan para el Strijp Philips de Eindhoven (2000). Se trata de una parte de su obra que ha mantenido constante, a lo largo del tiempo, una propuesta de disolución de la arquitectura de notable consistencia que puede describirse con la fórmula “città senza architettura”, acuñada por él mismo. Una voluntad que ya se apunta en la muy variada producción de Archizoom previa a la No-Stop City, y que cristaliza y se hace explícita en este proyecto que aspiraba a: “liberar al hombre de la arquitectura”. A pesar de la continuidad de esta idea en el tiempo, la ciudad sin arquitectura de Branzi ha evolucionado claramente dando lugar a distintos tipos de disolución. Una disolución que, obviamente, no supone la efectiva desaparición de la disciplina, sino la formulación de una arquitectura “otra” basada en un replanteamiento radical de la naturaleza y el papel de la misma. Esta agenda contra la disciplina se ha desplegado a través de una serie de temas que socavan el objeto arquitectónico canónico (su vaciamiento expresivo, la pérdida de importancia de la envolvente y la forma acabada, el carácter anticompositivo, la independencia entre forma y función, la mutabilidad en el tiempo…), pero va más allá al poner en crisis el rol que la propia arquitectura ha tenido en la configuración material, política y simbólica del hábitat humano. Una pérdida de protagonismo y centralidad en la sociedad contemporánea que, en el discurso del arquitecto, implica necesariamente un papel subordinado. De este proceso de disolución surge un nuevo tipo de ciudad en la que la forma urbana o se ha perdido o se ha convertido en superflua, en la que se ha disuelto la zonificación funcional, cuyos espacios interiores se hallan en un proceso de permanente reprogramación que ignora las tipologías, que trasciende la división entre lo urbano y lo agrícola y que es, ante todo, un espacio de flujos y servicios. La crisis de la ciudad tradicional implica, en definitiva, un cambio en la naturaleza misma de lo urbano que pasa de considerarse un lugar físico y construido, a convertirse en una condición inmaterial y virtualmente omnipresente que se despliega independientemente de su soporte físico. En las investigaciones urbanas de Branzi convergen, además, muchas de las reflexiones que el arquitecto ha desarrollado sobre, y desde, las distintas “escalas” de la actividad profesional: diseño, arquitectura y urbanismo. Estas propuestas no sólo cuestionan las relaciones establecidas entre objetos, edificios, ciudades y territorios sino que ponen en cuestión estas mismas categorías. Unas ciudades sin arquitectura que se basan, en última instancia, en plantear preguntas que son muy sencillas y, por otra parte, eternas: ¿Qué es un edificio? ¿Qué es una ciudad? ABSTRACT The subject of study of this thesis are the urban proposals developed by Andrea Branzi over the last fifty years, with a special focus on the more developed and comprehensive ones: the No- Stop City (1970-1971), produced as a member of the architettura radicale group Archizoom, and two of his “weak urbanization models”: Agronica (1995) and the Master Plan for Philips Strijp in Eindhoven (2000). This area of his work has kept, over time, a remarkably consistent proposal for the dissolution of architecture that can be described with the motto città senza architettura (city without architecture), coined by himself. A determination, already latent in the very diverse production of Archizoom prior to No-Stop City, that crystallizes and becomes explicit in this project which was aimed to "liberate man from the architecture." Despite the continuity of this idea over time, Branzi’s city without architecture has clearly evolved leading to different types of dissolution. A dissolution that, obviously, does not mean the effective demise of the discipline, but rather, the formulation of an architecture autre based on a radical rethinking of its nature and role. This agenda against the discipline has been developed through a number of issues that undermine the canonical architectural object (its expressive emptying, the loss of importance of the envelope and the finished shape, the anticompositional character, the independence between form and function, the mutability over time...), but goes beyond it by putting into crisis the role that architecture itself has had in the material, political and symbolic configuration of the human habitat. A loss of prominence and centrality in contemporary society that, in the architect’s discourse, implies a subordinate role. From this dissolution process, a new type of city arises: a city where urban form has been lost or has become superfluous, in which functional zoning has dissolved, whose interiors are in a permanent process of reprogramming that ignores typologies, that transcends the division between urban and agricultural and becomes, above all, a space of flows and services. Ultimately, the crisis of the traditional city implies a change in the very nature of the urban that moves from being regarded as a physical and built place, to become an immaterial and virtually omnipresent condition that unfolds regardless of its physical medium. Many of the ideas Branzi has developed on, and from, the different "scales" of professional activity (design, architecture and urbanism) converge in his urban research. These proposals not only question the relations between objects, buildings, cities and territories but also these very categories. Cities without architecture that are based, ultimately, on raising simple questions that are, on the other hand, eternal: What is a building? What is a city?

Relevância:

80.00% 80.00%

Publicador:

Resumo:

De entre los diversos grupos de contaminantes que pueden ser dañinos para ecosistemas acuáticos, sobresalen en los últimos años los biocidas utilizados como principio activo en recubrimientos antifouling ó pinturas anti-incrustantes para cascos de barcos y todo tipo de equipamiento sumergido ó en contacto con agua. Estos recubrimientos se aplican como sistema de protección para combatir la formación y asentamiento de comunidades bioincrustantes (fouling) frente a superficies expuestas al agua, también tienen como finalidad proteger frente a la corrosión de tipo químico y biológico. Normalmente estas pinturas anti-incrustantes son aplicadas en embarcaciones comerciales y de recreo, plataformas petrolíferas, tuberías submarinas, compuertas de presas, instalaciones destinadas a acuicultura, entre otro equipamiento. La utilización de biocidas en la formulación de pinturas anti-incrustantes para barcos ha sido propuesta por muchos investigadores como la aplicación de más impacto para los ecosistemas marinos, debido al intenso tráfico marítimo mundial que provoca la difusión de biocidas contaminantes en los mares, sobre todo en zonas costeras, bahías y puertos que es donde se magnifica el problema. Los llamados recubrimientos antifouling de segunda generación fueron los primeros que emplearon el tributilestaño (TBT) como principio activo en su formulación, a pesar de su gran eficacia y amplia utilización, al cabo del tiempo se ha demostrado su alta toxicidad y persistencia; por lo que existe una gran actividad investigadora en la búsqueda de alternativas asimismo eficientes pero más respetuosas con el medio marino. En este trabajo se pretende comparar los efectos para ecosistemas marinos del TBT y cinco biocidas como son dibutilestaño dicloruro, diuron (diclorofenil dimetil urea), piritionato de Zn ó Zn omadine, óxido de cobre (I) y DCOIT (Dicloro-2-n-octil-4-isotiazol-3-ona). Estos biocidas se han seleccionado en función de su naturaleza química diferenciada, distintas solubilidades en agua, eficacia, ecotoxicidad, persistencia y bioacumulación fundamentalmente. Para proceder a la clasificación del riesgo para ecosistema marino de los biocidas mencionados, nos valdremos de dos metodologías, una será la evaluación de unos índices de riesgo de biocidas para ecosistemas acuáticos con el fin de realizar una clasificación prospectiva de los mismos, basada en criterios PBT (Persistencia, Bioacumulación y Toxicidad para organismos acuáticos) y otra será una evaluación de la razón de la EXPOSICIÓN, valorada como PEC (Predictive Environmental Concentration) con relación a los EFECTOS originados, valorados como PNEC (Predicted No-Effect Concentration). Para cuantificar PEC nos valdremos de modelizaciones para ecosistemas marinos como MAMPEC (Marine Antifoulant Model to Predict Environmental Concentrations). Para cuantificar PNEC se hace uso de bioensayos a corto o largo plazo en organismos acuáticos. De esta manera podremos agrupar los biocidas en diversas categorías de riesgo y así poder decidir cuando su impacto medioambiental es asumible ó no asumible, alternativas posibles y en todo caso que decisiones se deben tomar al respecto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este estudio se ha planteado como objetivos validar un modelo de abundancia de Vaccinium myrtillus en la región centro-occidental de la Cordillera Cantábrica, desarrollado dentro del Proyecto de gestión forestal para el fomento de la conectividad y disponibilidad del hábitat del oso pardo en la ordillera Cantábrica: desarrollos metodológicos y propuestas espacialmente explícitas (GEFOUR) para el estudio de la conectividad ecológica del oso pardo en la Cordillera Cantábrica, y ensayar otro modelo a escala local para comprobar si mejora su predicción respecto al modelo regional. Dicho proyecto incluye como una de sus partes la elaboración de un mapa local de abundacia de recurso trófico para la especie mencionada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nesidiocoris tenuis (Router) (Hemiptera: Miridae) y Macrolophus basicornis (Stål) (Hemiptera: Miridae), son dos depredadores utilizados en el control de plagas del tomate, principalmente Tuta absoluta (Meyrick) (Lepidoptera: Gelechiidae), en España y Brasil respectivamente. Se ha estudiado la toxicidad residual de ocho modernos plaguicidas en adultos de estas dos especies de miridos, siguiendo la metodología recomendada por la Organización Internacional de Lucha Biológica e Integrada (OILB). Los ensayos se realizaron en dos laboratorios diferentes: Unidad de Protección Vegetal (ETSIA, UPM) y Laboratorio de Estudios de Selectividad (UFLA, Lavras-Brasil). Los insecticidas empleados en ambos laboratorios contenían el mismo ingrediente activo cuando fue posible (en el caso de Deltametrina y Flubendiamida) o pertenecían al mismo grupo de modo de acción principal según la clasificación del IRAC (Comité de Acción para la Resistencia a los Insecticidas): Spirotetramat, Metaflumizona y Sulfoxaflor en España y Spiromesifen, Indoxacarb e Imidacloprid en Brasil, respectivamente. Se evaluó la mortalidad durante los 3 días de exposición a los residuos y cuando fue posible, la descendencia de los supervivientes. Se comparan los resultados y las categorías de toxicología OILB obtenidas para los insecticidas estudiados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

“La ciudad radical” es una tentativa de catálogo de ciudades radicales, un atlas abierto de los límites imaginarios de la convivencia colectiva. Llamo al catálogo “tentativa” porque un catálogo siempre es abierto. Abierto en un doble sentido, en sentido de inacabado, siempre caben futuras revisiones, adiciones, modificaciones, alteraciones de orden… y en el sentido de permitir multitud lecturas y posibilidades abiertas de interpretación. El tema central de este trabajo es, el imaginario, lo imaginario, la fantasía, la ficción…como condición fundamental de creación en el ámbito social. En lo imaginario, y en el imaginario, reside la infinita y reiterativa capacidad de la sociedad para inventarse y re-inventarse, para crearse y re-crearse en el mundo, a través de la ciudad. Ciudad radical es una ciudad extremada, en la que una de sus rasgos ha sido llevado al extremo. Pero radical (del latín radix) también quiere decir raíz, origen, fundamento. El objeto del catálogo también es doble. Por un lado, el interés de generar un compendio de ciudades radicales, extremadas, acumuladas en la historia. Por otro lado, el objeto del catálogo es aproximarnos a la idea que nos hemos hecho, a lo largo de la historia, de nuestra gran “obra” en la tierra, el artificio esencialmente humano que es la ciudad. El análisis de las ciudades radicales sirve de método para la aproximación a la idea de ciudad y para desentrañar las metáforas urbanas que nos habitan, aquellas que nos hacen pensar la ciudad y en las que la ciudad nos piensa. En última instancia esta tesis pretender encontrar indicios que nos ayuden en la respuesta de una pregunta esencial, por qué ciudades, qué fuerzas nos empujan hacia los otros bajo la forma de la ciudad, desde los orígenes. La historia de nuestras sociedades es la historia de nuestras ciudades. La historia de la ciudad, es nuestra historia. La ciudad es la gran creación humana en la tierra, el objeto y el sujeto de la convivencia, del hábitat social. En este sentido la radicalización nos acerca a la esencia humana, desde el extremo llegamos al centro, al origen. Pensamos la ciudad, la ciudad nos piensa. Creamos la ciudad, la ciudad nos crea. La ciudad es radical en un doble sentido, está en el extremo y está en el origen, que es también el fin. ABSTRACT “The radical city” is an attempt to catalogue radical cities throughout history, it aims to be an open atlas of the imaginary limits of coexistence and the living together. I call this work an “attempt” of catalogue due to the implied open nature of catalogues. Open in the sense of unfinished, there is always space for adding, reviewing, modifying, altering…but also open in the sense of multiple readings and several possibilities for interpretation, which this work allows. The main background theme underlying this catalogue, providing context to the way of understanding human beings, is the imaginary, imagination, fantasy, and fiction as the fundamental condition for social creation. The imaginary is where the endless and reiterative capacity for societies to invent and re-invent themselves, to create and re-create themselves through the city, lies in. Radical city is an extreme city, which one of the features has been pushed to the limit. Radical, (from the Latin form, radix) also means root, origin and fundament. The object of this catalogue is double as well. On the one hand, the intention of putting together, as accumulating, a whole range of radical and extreme cities throughout history. On the other hand, the intention of the catalogue is approaching the idea, the way we, as humans, envision our own creation on Earth, the city as a purely and essentially human invention. In this sense, the analysis of radically produced cities helps as a means to understand, or at least, to get closer to the idea of the city itself; to figure out the urban metaphors envisioning “us” as living in cities, those metaphors determining the way we envision “inhabiting” as an essential need, and which set up the imaginary limits within we, as social individuals, dream of the city or the way in which the city, as the radix, “dreams of ourselves”. Ultimately, this work aims to approach the answer to a fundamental question, why cities? Which forces push us towards the others in the form of the city since forever? The history of our societies is the history of our cities. The history of our cities is our own history. Cities are our greatest invention, object and subject of coexistence, radical trigger for the living together. In this sense, radicalization helps us to get closer to human essence, is by approaching the limits that we can we reach the centre, the origin. We envision the city and¬¬¬ the city envisions us. The city is radical in a double way, is both origin and limits, origin and end.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde hace años se discute el concepto de realidad, tal como se concebía tradicionalmente, incluso llegando a dudar de la existencia de esa realidad. El espacio real también se cuestiona, pero es indudable que el ser humano experimenta los espacios naturales y artificiales; y entre estos últimos el arquitectónico, dentro del que se engloba el del espectador, relacionado con el espectáculo. Este espacio del espectador ha sufrido transformaciones según los espectáculos que se han ido sucediendo en la historia y seguirá modificándose y hoy en día coincide con entornos que antes no se empleaban para el espectáculo, ya que éste puede desarrollarse en cualquier lugar. El espacio escenográfico, propio del espectáculo, que se proyecta y construye con las normas de la escenografía, se ha ido completando de distintas maneras según el tipo de espectáculo y está relacionado con el arquitectónico gracias al movimiento, porque ambos, se pueden recorrer, físicamente o a través de la mediación de los creadores de los espectáculos; lo que implica una clasificación del espacio escenográfico cinético, según el movimiento. Para poder analizar ese espacio escenográfico cinético en profundidad y sentar bases para su estudio, se establece una tipología que denomina a cada una de las clasificaciones establecidas por categorías. Los instrumentos son necesarios para proyectar y construir el espacio escenográfico, algunos coinciden con los arquitectónicos, pero generalmente son diferentes y a su vez específicos según los distintos espectáculos. Se describen y catalogan para tener la posibilidad de saber cómo usarlos y así poder idear ese espacio. Los espacios arquitectónicos y espectaculares, se crean mediante el proyecto que según cada disciplina tiene particularidades diferentes. El principal objetivo del proyecto del espacio escenográfico es servir a la ficción y en general modificar y mejorar ese espectáculo, teniendo en la actualidad aspectos comunes con el espacio arquitectónico. La construcción del espacio arquitectónico hoy en día emplea técnicas y materiales con los que también se construye el espacio escenográfico. El espacio escenográfico cinético se puede construir además con técnicas propias que se definen y clasifican, incluyendo las nuevas composiciones de imágenes digitales. Según dónde se construye y la función que cumple lo construido en la ficción, surgen dos tipologías que también se analizan y definen. El objeto de la escenografía y la arquitectura es la creación de espacios que tienen características comunes, el espacio escenográfico también posee características específicas, que no existen en el arquitectónico. Así mismo las tipologías, los instrumentos, el proyecto y la construcción, difieren entre los dos espacios. Lo real se ha convertido en espectáculo, el espectáculo se proyecta y construye con las leyes y reglas de la escenografía, luego desde la arquitectura se han de conocer estas leyes y reglas, porque también sirven para construir lo real. ABSTRACT The reality is being questioned, even going so far as to doubt its existence; real space is also questioned, but the human being experiences the natural and artificial spaces; and amongst the latter the architectural, within which includes the performance one, related to the show. This performance space has been transformed according to the shows that have been happening in history and will continue modifying. Nowadays, it coincides with environments not previously employed for the show, because it can occur anywhere. The scenographic space, which belongs to the performance, is projected and built with the rules of the scenography. It has been completed in different ways depending on the type of show and is related to the architectural space thanks to movement, because both be travelled through, physically or through the mediation of the creators of the shows; implying a classification of the scenographic space, according to this movement. A typology which refers to each kinetic scenographic space based on classifications established by categories is essential to analyze deeply and lay the foundations to study this space. Instruments are necessary in order to project and build the scenographic space. Some coincide with the architectural ones, but are generally different and specific according to different performances. The instruments are described and catalogued to be able to know how to use them and to devise those spaces. Architectural and performance spaces are created by the project and have different characteristics according to each discipline. The main objective of the scenographic space project is to serve fiction and generally modify and improve the performance, which also happens today with the architectural space. The construction of architectural space nowadays employs techniques and materials with which the scenographic space is also constructed. The kinetic scenographic space can also be built with its own techniques that are defined and classified, including new compositions of digital images. Two types of spaces emerge depending on where they are built and the role played by this construction in fiction, which are also discussed and defined. The purpose of scenography and architecture is the creation of spaces that have common characteristics. The scenographic space also has specific characteristics which don’t exist in the architectural one. Also the typologies, the instruments, the project and the construction differ between the two spaces. Reality has become performance, the performance is projected and is built with the laws and rules of scenography, and then architecture must know these laws and rules, because they serve to construct reality.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El objetivo de este trabajo es la obtención de parámetros de Régimen Natural de Caudales (RNC) que permitan su clasificación en Hidrorregiones,siendo estas áreas, regiones que engloban masas de agua tipo río con características homogéneas respecto al régimen de caudales. Se entiende como RNC el que de forma natural circularía por el cauce,en contraposición a otros regímenes, a los que se puede denominar alterados, obtenidos al modificar el régimen natural mediante una regulación y/o detracción directa de caudales desde el cauce.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Al abordar aspectos de calidad superficial en hormigones vistos nos encontramos con la carencia de clasificación de calidades de superficies, lo que obliga a establecer patrones propios. Una vez identificados los defectos que van a discriminar entre categorías se plantea el problema de la cuantificación de defectos. La actualidad de esta temática ha generado grupos de trabajo, fib (Aesthetics in concrete) y ACHE (hormigón visto). En estos grupos se ha puesto de manifiesto la importancia de la gestión del diseño y construcción de estos elementos, así como el de establecer un procedimiento de control y recepción.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Los procedimientos de evaluación de la calidad de la voz basados en la valoración subjetiva a través de la percepción acústica por parte de un experto están bastante extendidos. Entre ellos,el protocolo GRBAS es el más comúnmente utilizado en la rutina clínica. Sin embargo existen varios problemas derivados de este tipo de estimaciones, el primero de los cuales es que se precisa de profesionales debidamente entrenados para su realización. Otro inconveniente reside en el hecho de que,al tratarse de una valoración subjetiva, múltiples circunstancias significativas influyen en la decisión final del evaluador, existiendo en muchos casos una variabilidad inter-evaluador e intra-evaluador en los juicios. Por estas razones se hace necesario el uso de parámetros objetivos que permitan realizar una valoración de la calidad de la voz y la detección de diversas patologías. Este trabajo tiene como objetivo comparar la efectividad de diversas técnicas de cálculo de parámetros representativos de la voz para su uso en la clasificación automática de escalas perceptuales. Algunos parámetros analizados serán los coeficientes Mel-Frequency Cepstral Coefficients(MFCC),las medidas de complejidad y las de ruido.Así mismo se introducirá un nuevo conjunto de características extraídas del Espectro de Modulación (EM) denominadas Centroides del Espectro de Modulación (CEM).En concreto se analizará el proceso de detección automática de dos de los cinco rasgos que componen la escala GRBAS: G y R. A lo largo de este documento se muestra cómo las características CEM proporcionan resultados similares a los de otras técnicas anteriormente utilizadas y propician en algún caso un incremento en la efectividad de la clasificación cuando son combinados con otros parámetros.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Existe la necesidad de disponer de sistemas objetivos y rápidos para la determinación de la calidad de los productos agrícolas. Los sistemas ópticos y espectrofotométricos se han presentado como muy válidos para estos fines en muchos productos (Mohsenin, 1984) (tomates, peras, manzanas, patatas, carnes, huevos...) esto justifica el uso de estos métodos sobre nuevos materiales. Las restricciones impuestas a los colorantes artificiales por las nuevas legislaciones favorecen el consumo de colorantes de origen natural, como el pimentón. Es necesario encontrar un sistema rápido y eficaz que determine la calidad de este producto de creciente interés, (Mínguez, 1992; Conrad, 1987; Nagle 1979; Navarro y Costa, 1993 ). Además existen graves problemas en la comercialización de este producto por la poca transparencia del mercado. Se han producido, en los últimos años, importaciones de pimentón de Marruecos de muy baja calidad y precio, que se mezclaban con pequeñas proporciones de pimentón de humo, comercializándose como pimentón de alta calidad y a precios similares al pimentón producido en la Vera por el sistema tradicional, lo que supone un fraude. Es por tanto necesario encontrar un sistema que discrimine producto de alta calidad ( con color atractivo, alto nivel de carotenoides y alta estabilidad ) de pimentones de baja calidad o dañados ( por exceso de calor durante el secado, enranciamiento, etc.). El objetivo de este trabajo ha sido segregar diversas calidades de pimentón, para esto se disponía de pimentones procedentes de Extremadura, de líneas seleccionadas obtenidas por el SIA, secados por el método tradicional (humo) y con estufa, incluyendo muestras que presentan daños por quemado. Sin ningún conocimiento previo se ha trabajado sobre espectros de reflexión en VIS y NIR a los que se han aplicado ciertas transformaciones para la obtención de variables que fueran capaces de discriminar pimentones secados con humo de los secados con estufa y de los quemados. Realizando reiterados estudios estadísticos se ha llegado a establecer algunas variables útiles en la separación de estas tres clases, para ambos rangos del espectro.