793 resultados para WHIM DESCRIPTORS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nanotecnología es un área de investigación de reciente creación que trata con la manipulación y el control de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. A escala nanométrica, los materiales exhiben fenómenos físicos, químicos y biológicos singulares, muy distintos a los que manifiestan a escala convencional. En medicina, los compuestos miniaturizados a nanoescala y los materiales nanoestructurados ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, así como una mejora en la focalización del medicamento hacia la diana terapéutica, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales (desde el nivel de población hasta el nivel de célula) y, por tanto, cualquier flujo de trabajo en nanomedicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Desafortunadamente, la informática biomédica todavía no ha proporcionado el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, ni ha adaptado sus métodos y herramientas a este nuevo campo de investigación. En este contexto, la nueva área de la nanoinformática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Las observaciones expuestas previamente determinan el contexto de esta tesis doctoral, la cual se centra en analizar el dominio de la nanomedicina en profundidad, así como en el desarrollo de estrategias y herramientas para establecer correspondencias entre las distintas disciplinas, fuentes de datos, recursos computacionales y técnicas orientadas a la extracción de información y la minería de textos, con el objetivo final de hacer uso de los datos nanomédicos disponibles. El autor analiza, a través de casos reales, alguna de las tareas de investigación en nanomedicina que requieren o que pueden beneficiarse del uso de métodos y herramientas nanoinformáticas, ilustrando de esta forma los inconvenientes y limitaciones actuales de los enfoques de informática biomédica a la hora de tratar con datos pertenecientes al dominio nanomédico. Se discuten tres escenarios diferentes como ejemplos de actividades que los investigadores realizan mientras llevan a cabo su investigación, comparando los contextos biomédico y nanomédico: i) búsqueda en la Web de fuentes de datos y recursos computacionales que den soporte a su investigación; ii) búsqueda en la literatura científica de resultados experimentales y publicaciones relacionadas con su investigación; iii) búsqueda en registros de ensayos clínicos de resultados clínicos relacionados con su investigación. El desarrollo de estas actividades requiere el uso de herramientas y servicios informáticos, como exploradores Web, bases de datos de referencias bibliográficas indexando la literatura biomédica y registros online de ensayos clínicos, respectivamente. Para cada escenario, este documento proporciona un análisis detallado de los posibles obstáculos que pueden dificultar el desarrollo y el resultado de las diferentes tareas de investigación en cada uno de los dos campos citados (biomedicina y nanomedicina), poniendo especial énfasis en los retos existentes en la investigación nanomédica, campo en el que se han detectado las mayores dificultades. El autor ilustra cómo la aplicación de metodologías provenientes de la informática biomédica a estos escenarios resulta efectiva en el dominio biomédico, mientras que dichas metodologías presentan serias limitaciones cuando son aplicadas al contexto nanomédico. Para abordar dichas limitaciones, el autor propone un enfoque nanoinformático, original, diseñado específicamente para tratar con las características especiales que la información presenta a nivel nano. El enfoque consiste en un análisis en profundidad de la literatura científica y de los registros de ensayos clínicos disponibles para extraer información relevante sobre experimentos y resultados en nanomedicina —patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.—, seguido del desarrollo de mecanismos para estructurar y analizar dicha información automáticamente. Este análisis concluye con la generación de un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento y de test anotados manualmente—, el cual ha sido aplicado a la clasificación de registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nanodrogas y nanodispositivos de aquellos enfocados a testear productos farmacéuticos tradicionales. El presente trabajo pretende proporcionar los métodos necesarios para organizar, depurar, filtrar y validar parte de los datos nanomédicos existentes en la actualidad a una escala adecuada para la toma de decisiones. Análisis similares para otras tareas de investigación en nanomedicina ayudarían a detectar qué recursos nanoinformáticos se requieren para cumplir los objetivos actuales en el área, así como a generar conjunto de datos de referencia, estructurados y densos en información, a partir de literatura y otros fuentes no estructuradas para poder aplicar nuevos algoritmos e inferir nueva información de valor para la investigación en nanomedicina. ABSTRACT Nanotechnology is a research area of recent development that deals with the manipulation and control of matter with dimensions ranging from 1 to 100 nanometers. At the nanoscale, materials exhibit singular physical, chemical and biological phenomena, very different from those manifested at the conventional scale. In medicine, nanosized compounds and nanostructured materials offer improved drug targeting and efficacy with respect to traditional formulations, and reveal novel diagnostic and therapeutic properties. Nevertheless, the complexity of information at the nano level is much higher than the complexity at the conventional biological levels (from populations to the cell). Thus, any nanomedical research workflow inherently demands advanced information management. Unfortunately, Biomedical Informatics (BMI) has not yet provided the necessary framework to deal with such information challenges, nor adapted its methods and tools to the new research field. In this context, the novel area of nanoinformatics aims to build new bridges between medicine, nanotechnology and informatics, allowing the application of computational methods to solve informational issues at the wide intersection between biomedicine and nanotechnology. The above observations determine the context of this doctoral dissertation, which is focused on analyzing the nanomedical domain in-depth, and developing nanoinformatics strategies and tools to map across disciplines, data sources, computational resources, and information extraction and text mining techniques, for leveraging available nanomedical data. The author analyzes, through real-life case studies, some research tasks in nanomedicine that would require or could benefit from the use of nanoinformatics methods and tools, illustrating present drawbacks and limitations of BMI approaches to deal with data belonging to the nanomedical domain. Three different scenarios, comparing both the biomedical and nanomedical contexts, are discussed as examples of activities that researchers would perform while conducting their research: i) searching over the Web for data sources and computational resources supporting their research; ii) searching the literature for experimental results and publications related to their research, and iii) searching clinical trial registries for clinical results related to their research. The development of these activities will depend on the use of informatics tools and services, such as web browsers, databases of citations and abstracts indexing the biomedical literature, and web-based clinical trial registries, respectively. For each scenario, this document provides a detailed analysis of the potential information barriers that could hamper the successful development of the different research tasks in both fields (biomedicine and nanomedicine), emphasizing the existing challenges for nanomedical research —where the major barriers have been found. The author illustrates how the application of BMI methodologies to these scenarios can be proven successful in the biomedical domain, whilst these methodologies present severe limitations when applied to the nanomedical context. To address such limitations, the author proposes an original nanoinformatics approach specifically designed to deal with the special characteristics of information at the nano level. This approach consists of an in-depth analysis of the scientific literature and available clinical trial registries to extract relevant information about experiments and results in nanomedicine —textual patterns, common vocabulary, experiment descriptors, characterization parameters, etc.—, followed by the development of mechanisms to automatically structure and analyze this information. This analysis resulted in the generation of a gold standard —a manually annotated training or reference set—, which was applied to the automatic classification of clinical trial summaries, distinguishing studies focused on nanodrugs and nanodevices from those aimed at testing traditional pharmaceuticals. The present work aims to provide the necessary methods for organizing, curating and validating existing nanomedical data on a scale suitable for decision-making. Similar analysis for different nanomedical research tasks would help to detect which nanoinformatics resources are required to meet current goals in the field, as well as to generate densely populated and machine-interpretable reference datasets from the literature and other unstructured sources for further testing novel algorithms and inferring new valuable information for nanomedicine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una de las dificultades principales en el desarrollo de software es la ausencia de un marco conceptual adecuado para su estudio. Una propuesta la constituye el modelo transformativo, que entiende el desarrollo de software como un proceso iterativo de transformación de especificaciones: se parte de una especificación inicial que va transformándose sucesivamente hasta obtener una especificación final que se toma como programa. Este modelo básico puede llevarse a la práctica de varias maneras. En concreto, la aproximación deductiva toma una sentencia lógica como especificación inicial y su proceso transformador consiste en la demostración de la sentencia; como producto secundario de la demostración se deriva un programa que satisface la especificación inicial. La tesis desarrolla un método deductivo para la derivación de programas funcionales con patrones, escritos en un lenguaje similar a Hope. El método utiliza una lógica multigénero, cuya relación con el lenguaje de programación es estudiada. También se identifican los esquemas de demostración necesarios para la derivación de funciones con patrones, basados en la demostración independiente de varias subsentencias. Cada subsentencia proporciona una subespecificación de una ecuación del futuro programa a derivar. Nuestro método deductivo está inspirado en uno previo de Zohar Manna y Richard Waldinger, conocido como el cuadro deductivo, que deriva programas en un lenguaje similar a Lisp. El nuevo método es una modificación del cuadro de estos autores, que incorpora géneros y permite demostrar una especificación mediante varios cuadros. Cada cuadro demuestra una subespecificación y por tanto deriva una ecuación del programa. Se prevén mecanismos para que los programas derivados puedan contener definiciones locales con patrones y variables anónimas y sinónimas y para que las funciones auxiliares derivadas no usen variables de las funciones principales. La tesis se completa con varios ejemplos de aplicación, un mecanismo que independentiza el método del lenguaje de programación y un prototipo de entorno interactivo de derivación deductiva. Categorías y descriptores de materia CR D.l.l [Técnicas de programación]: Programación funcional; D.2.10 [Ingeniería de software]: Diseño - métodos; F.3.1 [Lógica y significado de los programas]: Especificación, verificación y razonamiento sobre programas - lógica de programas; F.3.3 [Lógica y significado de los programas]: Estudios de construcciones de programas - construcciones funcionales; esquemas de programa y de recursion; 1.2.2 [Inteligencia artificial]: Programación automática - síntesis de programas; 1.2.3 [Inteligencia artificial]: Deducción y demostración de teoremas]: extracción de respuesta/razón; inducción matemática. Términos generales Programación funcional, síntesis de programas, demostración de teoremas. Otras palabras claves y expresiones Funciones con patrones, cuadro deductivo, especificación parcial, inducción estructural, teorema de descomposición.---ABSTRACT---One of the main difficulties in software development is the lack of an adequate conceptual framework of study. The transformational model is one such proposal that conceives software development as an iterative process of specifications transformation: an initial specification is developed and successively transformed until a final specification is obtained and taken as a program. This basic model can be implemented in several ways. The deductive approach takes a logical sentence as the initial specification and its proof constitutes the transformational process; as a byproduct of the proof, a program which satisfies the initial specification is derived. In the thesis, a deductive method for the derivation of Hope-like functional programs with patterns is developed. The method uses a many-sorted logic, whose relation to the programming language is studied. Also the proof schemes necessary for the derivation of functional programs with patterns, based on the independent proof of several subsentences, are identified. Each subsentence provides a subspecification of one equation of the future program to be derived. Our deductive method is inspired on a previous one by Zohar Manna and Richard Waldinger, known as the deductive tableau, which derives Lisp-like programs. The new method incorporates sorts in the tableau and allows to prove a sentence with several tableaux. Each tableau proves a subspecification and therefore derives an equation of the program. Mechanisms are included to allow the derived programs to contain local definitions with patterns and anonymous and synonymous variables; also, the derived auxiliary functions cannot reference parameters of their main functions. The thesis is completed with several application examples, i mechanism to make the method independent from the programming language and an interactive environment prototype for deductive derivation. CR categories and subject descriptors D.l.l [Programming techniques]: Functional programming; D.2.10 [Software engineering]: Design - methodologies; F.3.1 [Logics and meanings of programa]: Specifying and verifying and reasoning about programs - logics of programs; F.3.3 [Logics and meanings of programs]: Studies of program constructs - functional constructs; program and recursion schemes; 1.2.2 [Artificial intelligence]: Automatic programming - program synthesis; 1.2.3 [Artificial intelligence]: Deduction and theorem proving - answer/reason extraction; mathematical induction. General tenas Functional programming, program synthesis, theorem proving. Additional key words and phrases Functions with patterns, deductive tableau, structural induction, partial specification, descomposition theorem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Automatic 2D-to-3D conversion is an important application for filling the gap between the increasing number of 3D displays and the still scant 3D content. However, existing approaches have an excessive computational cost that complicates its practical application. In this paper, a fast automatic 2D-to-3D conversion technique is proposed, which uses a machine learning framework to infer the 3D structure of a query color image from a training database with color and depth images. Assuming that photometrically similar images have analogous 3D structures, a depth map is estimated by searching the most similar color images in the database, and fusing the corresponding depth maps. Large databases are desirable to achieve better results, but the computational cost also increases. A clustering-based hierarchical search using compact SURF descriptors to characterize images is proposed to drastically reduce search times. A significant computational time improvement has been obtained regarding other state-of-the-art approaches, maintaining the quality results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas de seguimiento mono-cámara han demostrado su notable capacidad para el análisis de trajectorias de objectos móviles y para monitorización de escenas de interés; sin embargo, tanto su robustez como sus posibilidades en cuanto a comprensión semántica de la escena están fuertemente limitadas por su naturaleza local y monocular, lo que los hace insuficientes para aplicaciones realistas de videovigilancia. El objetivo de esta tesis es la extensión de las posibilidades de los sistemas de seguimiento de objetos móviles para lograr un mayor grado de robustez y comprensión de la escena. La extensión propuesta se divide en dos direcciones separadas. La primera puede considerarse local, ya que está orientada a la mejora y enriquecimiento de las posiciones estimadas para los objetos móviles observados directamente por las cámaras del sistema; dicha extensión se logra mediante el desarrollo de un sistema multi-cámara de seguimiento 3D, capaz de proporcionar consistentemente las posiciones 3D de múltiples objetos a partir de las observaciones capturadas por un conjunto de sensores calibrados y con campos de visión solapados. La segunda extensión puede considerarse global, dado que su objetivo consiste en proporcionar un contexto global para relacionar las observaciones locales realizadas por una cámara con una escena de mucho mayor tamaño; para ello se propone un sistema automático de localización de cámaras basado en las trayectorias observadas de varios objetos móviles y en un mapa esquemático de la escena global monitorizada. Ambas líneas de investigación se tratan utilizando, como marco común, técnicas de estimación bayesiana: esta elección está justificada por la versatilidad y flexibilidad proporcionada por dicho marco estadístico, que permite la combinación natural de múltiples fuentes de información sobre los parámetros a estimar, así como un tratamiento riguroso de la incertidumbre asociada a las mismas mediante la inclusión de modelos de observación específicamente diseñados. Además, el marco seleccionado abre grandes posibilidades operacionales, puesto que permite la creación de diferentes métodos numéricos adaptados a las necesidades y características específicas de distintos problemas tratados. El sistema de seguimiento 3D con múltiples cámaras propuesto está específicamente diseñado para permitir descripciones esquemáticas de las medidas realizadas individualmente por cada una de las cámaras del sistema: esta elección de diseño, por tanto, no asume ningún algoritmo específico de detección o seguimiento 2D en ninguno de los sensores de la red, y hace que el sistema propuesto sea aplicable a redes reales de vigilancia con capacidades limitadas tanto en términos de procesamiento como de transmision. La combinación robusta de las observaciones capturadas individualmente por las cámaras, ruidosas, incompletas y probablemente contaminadas por falsas detecciones, se basa en un metodo de asociación bayesiana basado en geometría y color: los resultados de dicha asociación permiten el seguimiento 3D de los objetos de la escena mediante el uso de un filtro de partículas. El sistema de fusión de observaciones propuesto tiene, como principales características, una gran precisión en términos de localización 3D de objetos, y una destacable capacidad de recuperación tras eventuales errores debidos a un número insuficiente de datos de entrada. El sistema automático de localización de cámaras se basa en la observación de múltiples objetos móviles y un mapa esquemático de las áreas transitables del entorno monitorizado para inferir la posición absoluta de dicho sensor. Para este propósito, se propone un novedoso marco bayesiano que combina modelos dinámicos inducidos por el mapa en los objetos móviles presentes en la escena con las trayectorias observadas por la cámara, lo que representa un enfoque nunca utilizado en la literatura existente. El sistema de localización se divide en dos sub-tareas diferenciadas, debido a que cada una de estas tareas requiere del diseño de algoritmos específicos de muestreo para explotar en profundidad las características del marco desarrollado: por un lado, análisis de la ambigüedad del caso específicamente tratado y estimación aproximada de la localización de la cámara, y por otro, refinado de la localización de la cámara. El sistema completo, diseñado y probado para el caso específico de localización de cámaras en entornos de tráfico urbano, podría tener aplicación también en otros entornos y sensores de diferentes modalidades tras ciertas adaptaciones. ABSTRACT Mono-camera tracking systems have proved their capabilities for moving object trajectory analysis and scene monitoring, but their robustness and semantic possibilities are strongly limited by their local and monocular nature and are often insufficient for realistic surveillance applications. This thesis is aimed at extending the possibilities of moving object tracking systems to a higher level of scene understanding. The proposed extension comprises two separate directions. The first one is local, since is aimed at enriching the inferred positions of the moving objects within the area of the monitored scene directly covered by the cameras of the system; this task is achieved through the development of a multi-camera system for robust 3D tracking, able to provide 3D tracking information of multiple simultaneous moving objects from the observations reported by a set of calibrated cameras with semi-overlapping fields of view. The second extension is global, as is aimed at providing local observations performed within the field of view of one camera with a global context relating them to a much larger scene; to this end, an automatic camera positioning system relying only on observed object trajectories and a scene map is designed. The two lines of research in this thesis are addressed using Bayesian estimation as a general unifying framework. Its suitability for these two applications is justified by the flexibility and versatility of that stochastic framework, which allows the combination of multiple sources of information about the parameters to estimate in a natural and elegant way, addressing at the same time the uncertainty associated to those sources through the inclusion of models designed to this end. In addition, it opens multiple possibilities for the creation of different numerical methods for achieving satisfactory and efficient practical solutions to each addressed application. The proposed multi-camera 3D tracking method is specifically designed to work on schematic descriptions of the observations performed by each camera of the system: this choice allows the use of unspecific off-the-shelf 2D detection and/or tracking subsystems running independently at each sensor, and makes the proposal suitable for real surveillance networks with moderate computational and transmission capabilities. The robust combination of such noisy, incomplete and possibly unreliable schematic descriptors relies on a Bayesian association method, based on geometry and color, whose results allow the tracking of the targets in the scene with a particle filter. The main features exhibited by the proposal are, first, a remarkable accuracy in terms of target 3D positioning, and second, a great recovery ability after tracking losses due to insufficient input data. The proposed system for visual-based camera self-positioning uses the observations of moving objects and a schematic map of the passable areas of the environment to infer the absolute sensor position. To this end, a new Bayesian framework combining trajectory observations and map-induced dynamic models for moving objects is designed, which represents an approach to camera positioning never addressed before in the literature. This task is divided into two different sub-tasks, setting ambiguity analysis and approximate position estimation, on the one hand, and position refining, on the other, since they require the design of specific sampling algorithms to correctly exploit the discriminative features of the developed framework. This system, designed for camera positioning and demonstrated in urban traffic environments, can also be applied to different environments and sensors of other modalities after certain required adaptations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Debido al futuro incierto de la mayor parte de los fumigantes edáficos usados actualmente en la Unión Europea, que pueden implicar riesgos para la salud humana/animal y el medio ambiente, es necesario desarrollar programas de manejo integrado para el control de plagas de cultivos. Estos programas se incluyen como obligatorios en el Reglamento (EC) No. 1107/2009. De acuerdo con este Reglamento, es obligatoria la evaluación del riesgo asociado al uso de productos fitosanitarios sobre los organismos edáficos no diana y sus funciones, además de llevar a cabo ensayos con diferentes especies indicadoras para obtener datos de toxicidad que puedan ser usados posteriormente en la evaluación de riesgo. Sin embargo, la baja representatividad de algunas de estas especies indicadoras en el área Mediterránea supone una gran limitación. En esta situación, el Panel Científico de Productos Fitosanitarios y sus Residuos de la Autoridad Europea en Seguridad Alimentaria (EFSA), ha señalado la necesidad de modificar los datos ecotoxicológicos requeridos para evaluar los efectos adversos de los productos fitosanitarios de una manera más integrada, incluyendo criterios funcionales y estructurales mediante organismos como bacterias, hongos, protozoos y nematodos. De este modo, la EFSA ha recomendado el uso de los nematodos en la evaluación de la funcionalidad y estructura del suelo. Los nematodos están globalmente distribuidos y son morfológicamente diversos; esto junto con su gran abundancia y diversidad de respuestas a las perturbaciones edáficas, los convierte en indicadores adecuados del estado del suelo. Puesto que los nematodos interaccionan con muchos otros organismos que participan en diferentes eslabones de la red trófica edáfica, jugando papeles importantes en procesos edáficos esenciales en los agroescosistemas, la diversidad de nematodos es, a menudo, usada como indicador biológico de los efectos de las prácticas agrícolas en el estado del suelo. En los últimos años, diferentes índices basados en la comunidad nematológica han facilitado la interpretación de datos complejos sobre la ecología del suelo. Los índices de la red trófica edáfica, basados en la abundancia de grupos funcionales definidos como grupos C-P y grupos tróficos, permiten la evaluación de la funcionalidad de la red trófica edáfica. Por otra parte, la dificultad en la identificación taxonómica de nematodos para explicar su uso limitado como indicadores ecológicos, es ampliamente discutida, y existe cierta controversia en cuanto a la eficacia de los diferentes métodos de identificación de nematodos. Se argumenta que la identificación morfológica es difícil y puede llevar mucho tiempo debido a la falta de expertos especializados, y se afirma que las técnicas moleculares pueden resolver algunas limitaciones de las técnicas morfológicas como la identificación de juveniles. Sin embargo, los métodos de identificación molecular tienen también limitaciones; la mayoría de las bases de datos de secuencias de ADN están fuertemente orientadas hacia los nematodos fitoparásitos, los cuales representan sólo una parte de la comunidad edáfica de nematodos, mientras que hay poca información disponible de nematodos de vida libre a pesar de representar la mayoría de los nematodos edáficos. Este trabajo se centra en el estudio de los efectos de fumigantes edáficos en la funcionalidad del suelo a través del uso de diferentes indicadores basados en la comunidad de nematodos, como los índices de la red trófica, índices de diversidad, abundancia de los taxones más relevantes etc. También se han analizado otros indicadores funcionales relacionados con la supresividad edáfica, el ciclo de nutrientes o la actividad de la microfauna del suelo. En el capítulo 1, la diversidad de nematodos estudiada en una explotación comercial de fresa y sus alrededores durante dos campañas consecutivas en el suroeste español, fue baja en los suelos fumigados con fumigantes químicos ambas campañas y, aunque se observó una recuperación a lo largo de la campaña en la zona tratada, los suelos fumigados mostraron una condición perturbada permanente. La comunidad de nematodos estuvo más asociada al ciclo de nutrientes en la zona sin cultivar que en los suelos cultivados, y se observó poca relación entre la biomasa de las plantas y la estructura de la comunidad de nematodos. Los surcos sin tratar dentro de la zona de cultivo funcionaron como reservorio tanto de nematodos fitoparásitos como beneficiosos; sin embargo estas diferencias entre los surcos y los lomos de cultivo no fueron suficientes para mantener la supresividad edáfica en los surcos. Los suelos tratados fueron menos supresivos que los suelos sin tratar, y se observaron correlaciones positivas entre la supresividad edáfica y la estructura de la red trófica edáfica y la diversidad de nematodos. En el capítulo 2, se evaluaron los efectos de dos pesticidas orgánicos con efecto nematicida y dos nematicidas convencionales sobre las propiedades físico químicas del suelo, la diversidad de nematodos y la biomasa de las plantas en condiciones experimentales en dos tipos de suelo: suelos agrícolas poco diversos y suelos provenientes de una zona de vegetación natural muy diversos. El mayor efecto se observó en el tratamiento con neem, el cual indujo un gran incremento en el número de dauerlarvas en los suelos pobres en nutrientes, mientras que el mismo tratamiento indujo un incremento de poblaciones de nematodos bacterívoros, más estables y menos oportunistas, en los suelos del pinar ricos en materia orgánica. En el capítulo 3, se comparó la eficacia de métodos moleculares (TRFLP, Terminal Restriction Fragment Length Polymorphism) y morfológicos (microscopía de alta resolución) para la identificación de diferentes comunidades denematodos de España e Irlanda. Se compararon estadísticamente las diferencias y similitudes en la diversidad de nematodos, otros indicadores ecológicos y de la red trófica edáfica. Las identificaciones mediante el uso de TRFLP sólo detectó un porcentaje de los taxones presentes en las muestras de suelo identificadas morfológicamente, y los nematodos omnívoros y predadores no fueron detectados molecularmente en nuestro estudio. Los índices calculados en base a los nematodos micróboros mostraron más similitud cuando se identificaron morfológica y molecularmente que los índices basados en grupos tróficos más altos. Nuestros resultados muestran que, al menos con la técnica usada en este estudio, la identificación morfológica de nematodos es una herramienta fiable y más precisa que la identificación molecular, puesto que en general se obtiene una mayor resolución en la identificación de nematodos. En el capítulo 4, se estudiaron también los efectos de los nematicidas químicos sobre la comunidad de nematodos y la biomasa de las plantas en condiciones experimentales de campo, donde se aplicaron en una rotación de cultivo judía-col durante un ciclo de cultivo. Se aplicaron dos tipos de enmiendas orgánicas con el objetivo de mitigar el efecto negativo de los productos fitosanitarios sobre la diversidad edáfica. El efecto de los nematicidas sobre las propiedades del suelo y sobre la comunidad de nematodos fue más agudo que el efecto de las enmiendas. La incorporación de los restos de cosecha al final del ciclo de cultivo de la judía tuvo un gran efecto sobre la comunidad de nematodos, y aunque el número total de nematodos incrementó al final del experimento, se observó una condición perturbada permanente de la red trófica edáfica a lo largo del experimento. ABSTRACT Due to the uncertain future of the soil fumigants most commonly used in the EU, that might involve risks for human/animal health and the environment, there is a need to develop new integrated pest management programs, included as mandatory in the Regulation (EC) No. 1107/2009, to control crop diseases. According to this Regulation, evaluating the risk associated to the use of the plant production products (PPP) on non-target soil fauna and their function, and developing assays with different indicator species to obtain toxicity data to be used in the risk evaluation is mandatory. However, the low representativeness of some of these indicator species in the Mediterranean area is a relevant limitation. In this situation, the Scientific Panel of Plant Protection Products and their Residues of the European Food Safety Authority (EFSA) has pointed out the necessity of modifying the ecotoxicological data set required to evaluate non-target effects of PPP in a more integrated way, including structural and functional endpoints with organism such as bacteria, fungi, protists and nematodes. Thus, EFSA has recommended the use of nematodes in the assessment of the functional and structural features of the soil. Nematodes are globally distributed and morphologically diverse, and due to their high abundance and diversity of responses to soil disturbance, they are suitable indicators of the soil condition. Since nematodes interact with many other organisms as participants in several links of the soil food web, playing important roles in essential soil processes in agroecosystems, nematode diversity is often used as a biological indicator of the effects of agricultural practices on soil condition. In the last years, various indices based on soil nematode assemblages, have facilitated the interpretation of complex soil ecological data. Soil food web indices based on the abundances of functional guilds defined by C-P groups and trophic groups, permit evaluating soil food web functioning. On the other hand, the difficulty of nematode taxonomical identification is commonly argued to explain their limited used as ecological indicators, and there is a certain controversy in terms of the efficacy of various nematode identification methods. It is argued that the morphological identification is difficult and time consuming due to the lack of specialist knowledge, and it is claimed that molecular techniques can solve some limitations of morphological techniques such as the identification of juveniles. Nevertheless, molecular identification methods are limited too, since most of the DNA-based databases are strongly oriented towards plant-parasitic nematodes that represent only a fraction of the soil nematode community, while there is little information available on free-living nematodes, which represent most soil nematodes. This work focuses on the study of the effects of soil fumigants on soil functioning through the use of different indicators based on soil nematode community as soil food web indices, diversity indices, the abundance of more relevant taxa etc. Other functional indicators related to soil suppressiveness, nutrient cycling, or the activity of soil microfauna have been also studied. In chapter 1, nematode diversity assessed in a commercial strawberry farm and its surroundings for two consecutive growing seasons in southern Spain, was low in fumigated soils with chemical pesticides throughout both seasons and, although yearly recovery occurred within the treated fields, fumigated soils showed a permanent perturbed condition. The nematode community was more closely associated to nutrient cycling in the non-cropped than in the cropped soils, and the link between plant biomass and nematode community structure was weak. Non-treated furrows within the treated fields were a reservoir of both beneficial and plant-parasitic nematodes, but such difference between furrows and beds was not enough to maintain more suppressive soil assemblages in the furrows. Treated soils were less suppressive than unmanaged soils, and there was a positive and significant correlation between soil suppressiveness and soil food web structure and diversity. In chapter 2, the effects of two organic pesticides with nematicide effect and two chemical nematicides on soil physicalchemical properties, soil nematode diversity and plant biomass in experimental conditions were assessed in two types of soils: low diversity soils from an agricultural farm, and high diversity soils from a natural vegetation area. The larger effect was observed on the neem treatment, which induced a large boost of dauer juveniles in the nutrient-depleted soil, while the same treatment induced the increase of more stable, less opportunistic, populations of generalist bacterivore nematodes in the pine forest soil, rich in organic matter. In chapter 3, comparison of the efficiency of molecular (TRFLP, Terminal Restriction Fragment Length Polymorphism) and morphological (microscopy at high magnification) identification methods was carried out in different nematode communities from five sites of different land uses in Spain and Ireland. Differences and similarities on nematode diversity and other ecological and soil food web indices assessed by both methods, were statistically compared. Molecular identification with TRFLP only detected a percentage of the taxa present in the soil samples identified morphologically, and omnivores and predators were not detected molecularly in our study. Indices involving microbial feeding nematodes were more similar between identification methods than indices involving higher trophic links. Our results show that, at least with the technique used in this study, identifying nematodes morphologically is a reliable and more precise identification tool than molecular identification, since a higher taxonomic resolution is in general obtained compared to TRFLP. In chapter 4, the effect of chemical nematicides on nematode community descriptors and plant biomass was also studied in field conditions in an experimental area in which dazomet and dimethyl disulfide was applied in a bean-cabbage rotation system for a single season. Organic amendments were incorporated into the soil with the aim of mitigate the negative effect of the pesticides on soil diversity. The effect of the nematicides was much more noticeable than the effect of the amendments on soil properties and nematode community descriptors. The incorporation of bean crop residues into the soil at the end of bean crop cycle affected soil nematode community descriptors to a great extent, and although total number of nematodes increased at the end of the experiment, a permanent perturbed soil food web condition was observed along the experiment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nanotecnología es el estudio que la mayoría de veces es tomada como una meta tecnológica que nos ayuda en el área de investigación para tratar con la manipulación y el control en forma precisa de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. Recordando que el prefijo nano proviene del griego vavoc que significa enano y corresponde a un factor de 10^-9, que aplicada a las unidades de longitud corresponde a una mil millonésima parte de un metro. Ahora sabemos que esta ciencia permite trabajar con estructuras moleculares y sus átomos, obteniendo materiales que exhiben fenómenos físicos, químicos y biológicos, muy distintos a los que manifiestan los materiales usados con una longitud mayor. Por ejemplo en medicina, los compuestos manométricos y los materiales nano estructurados muchas veces ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, ya que muchas veces llegan a combinar los antiguos compuestos con estos nuevos para crear nuevas terapias e inclusive han llegado a reemplazarlos, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales y, por tanto, cualquier flujo de trabajo en nano medicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Muchos investigadores en la nanotecnología están buscando la manera de obtener información acerca de estos materiales nanométricos, para mejorar sus estudios que muchas veces lleva a probar estos métodos o crear nuevos compuestos para ayudar a la medicina actual, contra las enfermedades más poderosas como el cáncer. Pero en estos días es muy difícil encontrar una herramienta que les brinde la información específica que buscan en los miles de ensayos clínicos que se suben diariamente en la web. Actualmente, la informática biomédica trata de proporcionar el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, en este contexto, la nueva área de la nano informática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Otro caso en la actualidad es que muchos investigadores de biomedicina desean saber y comparar la información dentro de los ensayos clínicos que contiene temas de nanotecnología en las diferentes paginas en la web por todo el mundo, obteniendo en si ensayos clínicos que se han creado en Norte América, y ensayos clínicos que se han creado en Europa, y saber si en este tiempo este campo realmente está siendo explotado en los dos continentes. El problema es que no se ha creado una herramienta que estime un valor aproximado para saber los porcentajes del total de ensayos clínicos que se han creado en estas páginas web. En esta tesis de fin de máster, el autor utiliza un mejorado pre-procesamiento de texto y un algoritmo que fue determinado como el mejor procesamiento de texto en una tesis doctoral, que incluyo algunas pruebas con muchos de estos para obtener una estimación cercana que ayudaba a diferenciar cuando un ensayo clínico contiene información sobre nanotecnología y cuando no. En otras palabras aplicar un análisis de la literatura científica y de los registros de ensayos clínicos disponibles en los dos continentes para extraer información relevante sobre experimentos y resultados en nano medicina (patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.), seguido el mecanismo de procesamiento para estructurar y analizar dicha información automáticamente. Este análisis concluye con la estimación antes mencionada necesaria para comparar la cantidad de estudios sobre nanotecnología en estos dos continentes. Obviamente usamos un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento anotados manualmente—, y el conjunto de datos para el test es toda la base de datos de estos registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nano drogas, nano dispositivos y nano métodos de aquellos enfocados a testear productos farmacéuticos tradicionales.---ABSTRACT---Nanotechnology is the scientific study that usually is seen as a technological goal that helps us in the investigation field to deal with the manipulation and precise control of the matter with dimensions that range from 1 to 100 nanometers. Remembering that the prefix nano comes from the Greek word νᾶνος, meaning dwarf and denotes a factor of 10^-9, that applyied the longitude units is equal to a billionth of a meter. Now we know that this science allows us to work with molecular structures and their atoms, obtaining material that exhibit physical, chemical and biological phenomena very different to those manifesting in materials with a bigger longitude. As an example in medicine, the nanometric compounds and the materials in nano structures are often offered with more effectiveness regarding to the traditional chemical formulas. This is due to the fact that many occasions combining these old compounds with the new ones, creates new therapies and even replaced them, reveling new diagnostic and therapeutic properties. Even though the complexity of the information at nano level is greater than that in conventional biologic level and, thus, any work flow in nano medicine requires, in an inherent way, advance information management strategies. Many researchers in nanotechnology are looking for a way to obtain information about these nanometric materials to improve their studies that leads in many occasions to prove these methods or to create a new compound that helps modern medicine against powerful diseases, such as cancer. But in these days it is difficult to find a tool that searches and provides a specific information in the thousands of clinic essays that are uploaded daily on the web. Currently, the bio medic informatics tries to provide the work frame that will allow to deal with these information challenge in nano level. In this context, the new area of nano informatics pretends to detect and establish the existing links between medicine, nanotechnology and informatics, encouraging the usage of computational methods to resolve questions and problems that surge with the wide information intersection that is between biomedicine and nanotechnology. Another present case, is that many biomedicine researchers want to know and be able to compare the information inside those clinic essays that contains subjects of nanotechnology on the different webpages across the world, obtaining the clinic essays that has been done in North America and the essays done in Europe, and thus knowing if in this time, this field is really being exploited in both continents. In this master thesis, the author will use an enhanced text pre-processor with an algorithm that was defined as the best text processor in a doctoral thesis, that included many of these tests to obtain a close estimation that helps to differentiate when a clinic essay contains information about nanotechnology and when it does not. In other words, applying an analysis to the scientific literature and clinic essay available in both continents, in order to extract relevant information about experiments and the results in nano-medicine (textual patterns, common vocabulary, experiments descriptors, characterization parameters, etc.), followed by the mechanism process to structure and analyze said information automatically. This analysis concludes with the estimation, mentioned before, needed to compare the quantity of studies about nanotechnology in these two continents. Obviously we use a data reference model (Gold standard) – a set of training data manually annotated –, and the set of data for the test conforms the entire database of these clinic essay registers, allowing to distinguish automatically the studies centered on nano drugs, nano devices and nano methods of those focus on testing traditional pharmaceutical products.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Histograms of Oriented Gradients (HoGs) provide excellent results in object detection and verification. However, their demanding processing requirements bound their applicability in some critical real-time scenarios, such as for video-based on-board vehicle detection systems. In this work, an efficient HOG configuration for pose-based on-board vehicle verification is proposed, which alleviates both the processing requirements and required feature vector length without reducing classification performance. The impact on classification of some critical configuration and processing parameters is in depth analyzed to propose a baseline efficient descriptor. Based on the analysis of its cells contribution to classification, new view-dependent cell-configuration patterns are proposed, resulting in reduced descriptors which provide an excellent balance between performance and computational requirements, rendering higher verification rates than other works in the literature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo de las técnicas de imágenes por resonancia magnética han permitido el estudio y cuantificación, in vivo, de los cambios que ocurren en la morfología cerebral ligados a procesos tales como el neurodesarrollo, el envejecimiento, el aprendizaje o la enfermedad. Un gran número de métodos de morfometría han sido desarrollados con el fin de extraer la información contenida en estas imágenes y traducirla en indicadores de forma o tamaño, tales como el volumen o el grosor cortical; marcadores que son posteriormente empleados para encontrar diferencias estadísticas entre poblaciones de sujetos o realizar correlaciones entre la morfología cerebral y, por ejemplo, la edad o la severidad de determinada enfermedad. A pesar de la amplia variedad de biomarcadores y metodologías de morfometría, muchos estudios sesgan sus hipótesis, y con ello los resultados experimentales, al empleo de un número reducido de biomarcadores o a al uso de una única metodología de procesamiento. Con el presente trabajo se pretende demostrar la importancia del empleo de diversos métodos de morfometría para lograr una mejor caracterización del proceso que se desea estudiar. En el mismo se emplea el análisis de forma para detectar diferencias, tanto globales como locales, en la morfología del tálamo entre pacientes adolescentes con episodios tempranos de psicosis y adolescentes sanos. Los resultados obtenidos demuestran que la diferencia de volumen talámico entre ambas poblaciones de sujetos, previamente descrita en la literatura, se debe a una reducción del volumen de la región anterior-mediodorsal y del núcleo pulvinar del tálamo de los pacientes respecto a los sujetos sanos. Además, se describe el desarrollo de un estudio longitudinal, en sujetos sanos, que emplea simultáneamente distintos biomarcadores para la caracterización y cuantificación de los cambios que ocurren en la morfología de la corteza cerebral durante la adolescencia. A través de este estudio se revela que el proceso de “alisado” que experimenta la corteza cerebral durante la adolescencia es consecuencia de una disminución de la profundidad, ligada a un incremento en el ancho, de los surcos corticales. Finalmente, esta metodología es aplicada, en un diseño transversal, para el estudio de las causas que provocan el decrecimiento tanto del grosor cortical como del índice de girificación en adolescentes con episodios tempranos de psicosis. ABSTRACT The ever evolving sophistication of magnetic resonance image techniques continue to provide new tools to characterize and quantify, in vivo, brain morphologic changes related to neurodevelopment, senescence, learning or disease. The majority of morphometric methods extract shape or size descriptors such as volume, surface area, and cortical thickness from the MRI image. These morphological measurements are commonly entered in statistical analytic approaches for testing between-group differences or for correlations between the morphological measurement and other variables such as age, sex, or disease severity. A wide variety of morphological biomarkers are reported in the literature. Despite this wide range of potentially useful biomarkers and available morphometric methods, the hypotheses and findings of the grand majority of morphological studies are biased because reports assess only one morphometric feature and usually use only one image processing method. Throughout this dissertation biomarkers and image processing strategies are combined to provide innovative and useful morphometric tools for examining brain changes during neurodevelopment. Specifically, a shape analysis technique allowing for a fine-grained assessment of regional thalamic volume in early-onset psychosis patients and healthy comparison subjects is implemented. Results show that disease-related reductions in global thalamic volume, as previously described by other authors, could be particularly driven by a deficit in the anterior-mediodorsal and pulvinar thalamic regions in patients relative to healthy subjects. Furthermore, in healthy adolescents different cortical features are extracted and combined and their interdependency is assessed over time. This study attempts to extend current knowledge of normal brain development, specifically the largely unexplored relationship between changes of distinct cortical morphological measurements during adolescence. This study demonstrates that cortical flattening, present during adolescence, is produced by a combination of age-related increase in sulcal width and decrease in sulcal depth. Finally, this methodology is applied to a cross-sectional study, investigating the mechanisms underlying the decrease in cortical thickness and gyrification observed in psychotic patients with a disease onset during adolescence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cerebro humano es probablemente uno de los sistemas más complejos a los que nos enfrentamos en la actualidad, si bien es también uno de los más fascinantes. Sin embargo, la compresión de cómo el cerebro organiza su actividad para llevar a cabo tareas complejas es un problema plagado de restos y obstáculos. En sus inicios la neuroimagen y la electrofisiología tenían como objetivo la identificación de regiones asociadas a activaciones relacionadas con tareas especificas, o con patrones locales que variaban en el tiempo dada cierta actividad. Sin embargo, actualmente existe un consenso acerca de que la actividad cerebral tiene un carácter temporal multiescala y espacialmente extendido, lo que lleva a considerar el cerebro como una gran red de áreas cerebrales coordinadas, cuyas conexiones funcionales son continuamente creadas y destruidas. Hasta hace poco, el énfasis de los estudios de la actividad cerebral funcional se han centrado en la identidad de los nodos particulares que forman estas redes, y en la caracterización de métricas de conectividad entre ellos: la hipótesis subyacente es que cada nodo, que es una representación mas bien aproximada de una región cerebral dada, ofrece a una única contribución al total de la red. Por tanto, la neuroimagen funcional integra los dos ingredientes básicos de la neuropsicología: la localización de la función cognitiva en módulos cerebrales especializados y el rol de las fibras de conexión en la integración de dichos módulos. Sin embargo, recientemente, la estructura y la función cerebral han empezado a ser investigadas mediante la Ciencia de la Redes, una interpretación mecánico-estadística de una antigua rama de las matemáticas: La teoría de grafos. La Ciencia de las Redes permite dotar a las redes funcionales de una gran cantidad de propiedades cuantitativas (robustez, centralidad, eficiencia, ...), y así enriquecer el conjunto de elementos que describen objetivamente la estructura y la función cerebral a disposición de los neurocientíficos. La conexión entre la Ciencia de las Redes y la Neurociencia ha aportado nuevos puntos de vista en la comprensión de la intrincada anatomía del cerebro, y de cómo las patrones de actividad cerebral se pueden sincronizar para generar las denominadas redes funcionales cerebrales, el principal objeto de estudio de esta Tesis Doctoral. Dentro de este contexto, la complejidad emerge como el puente entre las propiedades topológicas y dinámicas de los sistemas biológicos y, específicamente, en la relación entre la organización y la dinámica de las redes funcionales cerebrales. Esta Tesis Doctoral es, en términos generales, un estudio de cómo la actividad cerebral puede ser entendida como el resultado de una red de un sistema dinámico íntimamente relacionado con los procesos que ocurren en el cerebro. Con este fin, he realizado cinco estudios que tienen en cuenta ambos aspectos de dichas redes funcionales: el topológico y el dinámico. De esta manera, la Tesis está dividida en tres grandes partes: Introducción, Resultados y Discusión. En la primera parte, que comprende los Capítulos 1, 2 y 3, se hace un resumen de los conceptos más importantes de la Ciencia de las Redes relacionados al análisis de imágenes cerebrales. Concretamente, el Capitulo 1 está dedicado a introducir al lector en el mundo de la complejidad, en especial, a la complejidad topológica y dinámica de sistemas acoplados en red. El Capítulo 2 tiene como objetivo desarrollar los fundamentos biológicos, estructurales y funcionales del cerebro, cuando éste es interpretado como una red compleja. En el Capítulo 3, se resumen los objetivos esenciales y tareas que serán desarrolladas a lo largo de la segunda parte de la Tesis. La segunda parte es el núcleo de la Tesis, ya que contiene los resultados obtenidos a lo largo de los últimos cuatro años. Esta parte está dividida en cinco Capítulos, que contienen una versión detallada de las publicaciones llevadas a cabo durante esta Tesis. El Capítulo 4 está relacionado con la topología de las redes funcionales y, específicamente, con la detección y cuantificación de los nodos mas importantes: aquellos denominados “hubs” de la red. En el Capítulo 5 se muestra como las redes funcionales cerebrales pueden ser vistas no como una única red, sino más bien como una red-de-redes donde sus componentes tienen que coexistir en una situación de balance funcional. De esta forma, se investiga cómo los hemisferios cerebrales compiten para adquirir centralidad en la red-de-redes, y cómo esta interacción se mantiene (o no) cuando se introducen fallos deliberadamente en la red funcional. El Capítulo 6 va un paso mas allá al considerar las redes funcionales como sistemas vivos. En este Capítulo se muestra cómo al analizar la evolución de la topología de las redes, en vez de tratarlas como si estas fueran un sistema estático, podemos caracterizar mejor su estructura. Este hecho es especialmente relevante cuando se quiere tratar de encontrar diferencias entre grupos que desempeñan una tarea de memoria, en la que las redes funcionales tienen fuertes fluctuaciones. En el Capítulo 7 defino cómo crear redes parenclíticas a partir de bases de datos de actividad cerebral. Este nuevo tipo de redes, recientemente introducido para estudiar las anormalidades entre grupos de control y grupos anómalos, no ha sido implementado nunca en datos cerebrales y, en este Capítulo explico cómo hacerlo cuando se quiere evaluar la consistencia de la dinámica cerebral. Para concluir esta parte de la Tesis, el Capítulo 8 se centra en la relación entre las propiedades topológicas de los nodos dentro de una red y sus características dinámicas. Como mostraré más adelante, existe una relación entre ellas que revela que la posición de un nodo dentro una red está íntimamente correlacionada con sus propiedades dinámicas. Finalmente, la última parte de esta Tesis Doctoral está compuesta únicamente por el Capítulo 9, el cual contiene las conclusiones y perspectivas futuras que pueden surgir de los trabajos expuestos. En vista de todo lo anterior, espero que esta Tesis aporte una perspectiva complementaria sobre uno de los más extraordinarios sistemas complejos frente a los que nos encontramos: El cerebro humano. ABSTRACT The human brain is probably one of the most complex systems we are facing, thus being a timely and fascinating object of study. Characterizing how the brain organizes its activity to carry out complex tasks is highly non-trivial. While early neuroimaging and electrophysiological studies typically aimed at identifying patches of task-specific activations or local time-varying patterns of activity, there has now been consensus that task-related brain activity has a temporally multiscale, spatially extended character, as networks of coordinated brain areas are continuously formed and destroyed. Up until recently, though, the emphasis of functional brain activity studies has been on the identity of the particular nodes forming these networks, and on the characterization of connectivity metrics between them, the underlying covert hypothesis being that each node, constituting a coarse-grained representation of a given brain region, provides a unique contribution to the whole. Thus, functional neuroimaging initially integrated the two basic ingredients of early neuropsychology: localization of cognitive function into specialized brain modules and the role of connection fibres in the integration of various modules. Lately, brain structure and function have started being investigated using Network Science, a statistical mechanics understanding of an old branch of pure mathematics: graph theory. Network Science allows endowing networks with a great number of quantitative properties, thus vastly enriching the set of objective descriptors of brain structure and function at neuroscientists’ disposal. The link between Network Science and Neuroscience has shed light about how the entangled anatomy of the brain is, and how cortical activations may synchronize to generate the so-called functional brain networks, the principal object under study along this PhD Thesis. Within this context, complexity appears to be the bridge between the topological and dynamical properties of biological systems and, more specifically, the interplay between the organization and dynamics of functional brain networks. This PhD Thesis is, in general terms, a study of how cortical activations can be understood as the output of a network of dynamical systems that are intimately related with the processes occurring in the brain. In order to do that, I performed five studies that encompass both the topological and the dynamical aspects of such functional brain networks. In this way, the Thesis is divided into three major parts: Introduction, Results and Discussion. In the first part, comprising Chapters 1, 2 and 3, I make an overview of the main concepts of Network Science related to the analysis of brain imaging. More specifically, Chapter 1 is devoted to introducing the reader to the world of complexity, specially to the topological and dynamical complexity of networked systems. Chapter 2 aims to develop the biological, topological and functional fundamentals of the brain when it is seen as a complex network. Next, Chapter 3 summarizes the main objectives and tasks that will be developed along the forthcoming Chapters. The second part of the Thesis is, in turn, its core, since it contains the results obtained along these last four years. This part is divided into five Chapters, containing a detailed version of the publications carried out during the Thesis. Chapter 4 is related to the topology of functional networks and, more specifically, to the detection and quantification of the leading nodes of the network: the hubs. In Chapter 5 I will show that functional brain networks can be viewed not as a single network, but as a network-of-networks, where its components have to co-exist in a trade-off situation. In this way, I investigate how the brain hemispheres compete for acquiring the centrality of the network-of-networks and how this interplay is maintained (or not) when failures are introduced in the functional network. Chapter 6 goes one step beyond by considering functional networks as living systems. In this Chapter I show how analyzing the evolution of the network topology instead of treating it as a static system allows to better characterize functional networks. This fact is especially relevant when trying to find differences between groups performing certain memory tasks, where functional networks have strong fluctuations. In Chapter 7 I define how to create parenclitic networks from brain imaging datasets. This new kind of networks, recently introduced to study abnormalities between control and anomalous groups, have not been implemented with brain datasets and I explain in this Chapter how to do it when evaluating the consistency of brain dynamics. To conclude with this part of the Thesis, Chapter 8 is devoted to the interplay between the topological properties of the nodes within a network and their dynamical features. As I will show, there is an interplay between them which reveals that the position of a node in a network is intimately related with its dynamical properties. Finally, the last part of this PhD Thesis is composed only by Chapter 9, which contains the conclusions and future perspectives that may arise from the exposed results. In view of all, I hope that reading this Thesis will give a complementary perspective of one of the most extraordinary complex systems: The human brain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El daño cerebral adquirido (DCA) es un problema social y sanitario grave, de magnitud creciente y de una gran complejidad diagnóstica y terapéutica. Su elevada incidencia, junto con el aumento de la supervivencia de los pacientes, una vez superada la fase aguda, lo convierten también en un problema de alta prevalencia. En concreto, según la Organización Mundial de la Salud (OMS) el DCA estará entre las 10 causas más comunes de discapacidad en el año 2020. La neurorrehabilitación permite mejorar el déficit tanto cognitivo como funcional y aumentar la autonomía de las personas con DCA. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma donde se puedan diseñar tratamientos que sean intensivos, personalizados, monitorizados y basados en la evidencia. Ya que son estas cuatro características las que aseguran que los tratamientos son eficaces. A diferencia de la mayor parte de las disciplinas médicas, no existen asociaciones de síntomas y signos de la alteración cognitiva que faciliten la orientación terapéutica. Actualmente, los tratamientos de neurorrehabilitación se diseñan en base a los resultados obtenidos en una batería de evaluación neuropsicológica que evalúa el nivel de afectación de cada una de las funciones cognitivas (memoria, atención, funciones ejecutivas, etc.). La línea de investigación en la que se enmarca este trabajo de investigación pretende diseñar y desarrollar un perfil cognitivo basado no sólo en el resultado obtenido en esa batería de test, sino también en información teórica que engloba tanto estructuras anatómicas como relaciones funcionales e información anatómica obtenida de los estudios de imagen. De esta forma, el perfil cognitivo utilizado para diseñar los tratamientos integra información personalizada y basada en la evidencia. Las técnicas de neuroimagen representan una herramienta fundamental en la identificación de lesiones para la generación de estos perfiles cognitivos. La aproximación clásica utilizada en la identificación de lesiones consiste en delinear manualmente regiones anatómicas cerebrales. Esta aproximación presenta diversos problemas relacionados con inconsistencias de criterio entre distintos clínicos, reproducibilidad y tiempo. Por tanto, la automatización de este procedimiento es fundamental para asegurar una extracción objetiva de información. La delineación automática de regiones anatómicas se realiza mediante el registro tanto contra atlas como contra otros estudios de imagen de distintos sujetos. Sin embargo, los cambios patológicos asociados al DCA están siempre asociados a anormalidades de intensidad y/o cambios en la localización de las estructuras. Este hecho provoca que los algoritmos de registro tradicionales basados en intensidad no funcionen correctamente y requieran la intervención del clínico para seleccionar ciertos puntos (que en esta tesis hemos denominado puntos singulares). Además estos algoritmos tampoco permiten que se produzcan deformaciones grandes deslocalizadas. Hecho que también puede ocurrir ante la presencia de lesiones provocadas por un accidente cerebrovascular (ACV) o un traumatismo craneoencefálico (TCE). Esta tesis se centra en el diseño, desarrollo e implementación de una metodología para la detección automática de estructuras lesionadas que integra algoritmos cuyo objetivo principal es generar resultados que puedan ser reproducibles y objetivos. Esta metodología se divide en cuatro etapas: pre-procesado, identificación de puntos singulares, registro y detección de lesiones. Los trabajos y resultados alcanzados en esta tesis son los siguientes: Pre-procesado. En esta primera etapa el objetivo es homogeneizar todos los datos de entrada con el objetivo de poder extraer conclusiones válidas de los resultados obtenidos. Esta etapa, por tanto, tiene un gran impacto en los resultados finales. Se compone de tres operaciones: eliminación del cráneo, normalización en intensidad y normalización espacial. Identificación de puntos singulares. El objetivo de esta etapa es automatizar la identificación de puntos anatómicos (puntos singulares). Esta etapa equivale a la identificación manual de puntos anatómicos por parte del clínico, permitiendo: identificar un mayor número de puntos lo que se traduce en mayor información; eliminar el factor asociado a la variabilidad inter-sujeto, por tanto, los resultados son reproducibles y objetivos; y elimina el tiempo invertido en el marcado manual de puntos. Este trabajo de investigación propone un algoritmo de identificación de puntos singulares (descriptor) basado en una solución multi-detector y que contiene información multi-paramétrica: espacial y asociada a la intensidad. Este algoritmo ha sido contrastado con otros algoritmos similares encontrados en el estado del arte. Registro. En esta etapa se pretenden poner en concordancia espacial dos estudios de imagen de sujetos/pacientes distintos. El algoritmo propuesto en este trabajo de investigación está basado en descriptores y su principal objetivo es el cálculo de un campo vectorial que permita introducir deformaciones deslocalizadas en la imagen (en distintas regiones de la imagen) y tan grandes como indique el vector de deformación asociado. El algoritmo propuesto ha sido comparado con otros algoritmos de registro utilizados en aplicaciones de neuroimagen que se utilizan con estudios de sujetos control. Los resultados obtenidos son prometedores y representan un nuevo contexto para la identificación automática de estructuras. Identificación de lesiones. En esta última etapa se identifican aquellas estructuras cuyas características asociadas a la localización espacial y al área o volumen han sido modificadas con respecto a una situación de normalidad. Para ello se realiza un estudio estadístico del atlas que se vaya a utilizar y se establecen los parámetros estadísticos de normalidad asociados a la localización y al área. En función de las estructuras delineadas en el atlas, se podrán identificar más o menos estructuras anatómicas, siendo nuestra metodología independiente del atlas seleccionado. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la identificación automática de lesiones utilizando estudios de imagen médica estructural, concretamente estudios de resonancia magnética. Basándose en estos cimientos, se han abrir nuevos campos de investigación que contribuyan a la mejora en la detección de lesiones. ABSTRACT Brain injury constitutes a serious social and health problem of increasing magnitude and of great diagnostic and therapeutic complexity. Its high incidence and survival rate, after the initial critical phases, makes it a prevalent problem that needs to be addressed. In particular, according to the World Health Organization (WHO), brain injury will be among the 10 most common causes of disability by 2020. Neurorehabilitation improves both cognitive and functional deficits and increases the autonomy of brain injury patients. The incorporation of new technologies to the neurorehabilitation tries to reach a new paradigm focused on designing intensive, personalized, monitored and evidence-based treatments. Since these four characteristics ensure the effectivity of treatments. Contrary to most medical disciplines, it is not possible to link symptoms and cognitive disorder syndromes, to assist the therapist. Currently, neurorehabilitation treatments are planned considering the results obtained from a neuropsychological assessment battery, which evaluates the functional impairment of each cognitive function (memory, attention, executive functions, etc.). The research line, on which this PhD falls under, aims to design and develop a cognitive profile based not only on the results obtained in the assessment battery, but also on theoretical information that includes both anatomical structures and functional relationships and anatomical information obtained from medical imaging studies, such as magnetic resonance. Therefore, the cognitive profile used to design these treatments integrates information personalized and evidence-based. Neuroimaging techniques represent an essential tool to identify lesions and generate this type of cognitive dysfunctional profiles. Manual delineation of brain anatomical regions is the classical approach to identify brain anatomical regions. Manual approaches present several problems related to inconsistencies across different clinicians, time and repeatability. Automated delineation is done by registering brains to one another or to a template. However, when imaging studies contain lesions, there are several intensity abnormalities and location alterations that reduce the performance of most of the registration algorithms based on intensity parameters. Thus, specialists may have to manually interact with imaging studies to select landmarks (called singular points in this PhD) or identify regions of interest. These two solutions have the same inconvenient than manual approaches, mentioned before. Moreover, these registration algorithms do not allow large and distributed deformations. This type of deformations may also appear when a stroke or a traumatic brain injury (TBI) occur. This PhD is focused on the design, development and implementation of a new methodology to automatically identify lesions in anatomical structures. This methodology integrates algorithms whose main objective is to generate objective and reproducible results. It is divided into four stages: pre-processing, singular points identification, registration and lesion detection. Pre-processing stage. In this first stage, the aim is to standardize all input data in order to be able to draw valid conclusions from the results. Therefore, this stage has a direct impact on the final results. It consists of three steps: skull-stripping, spatial and intensity normalization. Singular points identification. This stage aims to automatize the identification of anatomical points (singular points). It involves the manual identification of anatomical points by the clinician. This automatic identification allows to identify a greater number of points which results in more information; to remove the factor associated to inter-subject variability and thus, the results are reproducible and objective; and to eliminate the time spent on manual marking. This PhD proposed an algorithm to automatically identify singular points (descriptor) based on a multi-detector approach. This algorithm contains multi-parametric (spatial and intensity) information. This algorithm has been compared with other similar algorithms found on the state of the art. Registration. The goal of this stage is to put in spatial correspondence two imaging studies of different subjects/patients. The algorithm proposed in this PhD is based on descriptors. Its main objective is to compute a vector field to introduce distributed deformations (changes in different imaging regions), as large as the deformation vector indicates. The proposed algorithm has been compared with other registration algorithms used on different neuroimaging applications which are used with control subjects. The obtained results are promising and they represent a new context for the automatic identification of anatomical structures. Lesion identification. This final stage aims to identify those anatomical structures whose characteristics associated to spatial location and area or volume has been modified with respect to a normal state. A statistical study of the atlas to be used is performed to establish which are the statistical parameters associated to the normal state. The anatomical structures that may be identified depend on the selected anatomical structures identified on the atlas. The proposed methodology is independent from the selected atlas. Overall, this PhD corroborates the investigated research hypotheses regarding the automatic identification of lesions based on structural medical imaging studies (resonance magnetic studies). Based on these foundations, new research fields to improve the automatic identification of lesions in brain injury can be proposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Según Heidegger, la esencia de la arquitectura, de la construcción, descansa en un no espacio: en la materia con que se construyen las fronteras que otorgan espacios, irradiando sobre ellos aquello que los caracteriza. Si hay alguna materia, de las utilizadas por la arquitectura a lo largo de su historia para construir fronteras, que haya mantenido una especial relación con la luz y la visión, dando un carácter inconfundible a los espacios aviados por ellas, esta es el vidrio; algunas de las etimologías de su nombre: zakû (ser claro), hyalos (diáfano) o vitrum (ver), así lo evidencian. Posiblemente, sea la pregnancia de este modo fascinante de relacionarse con la luz, la que ha hecho del vidrio, a lo largo del tiempo que lleva siendo usado en arquitectura, y aún antes, el material que ha provocado en el imaginario humano la ilusión de ser aquel en que, en último término, podrían llegar a sublimarse todos los demás, dando lugar con ello a lo que en la tesis hemos denominado el sueño de la arquitectura de cristal. Siendo la luz, siempre, energía, consideraremos en la tesis luz-energía, a aquella que ilumina y calienta; es una luz científica y mesurable. Cuando la luz se “hace visible”, desvelando un mensaje “contenido” en el vidrio, hablaremos de luz-información. Esta luz, no puede medirse científicamente. La luz-energía y la luz-información, se manifiestan al conjuro de la arquitectura de vidrio. Es la segunda la que ha conformado las fronteras de vidrio enmascarado, y la que se estudia con más detenimiento en la tesis. Los distintos modos de usar en arquitectura la infinita combinatoria de las propiedades de absortancia, reflectancia, transmitancia y translucencia del vidrio, ha condicionado al hombre en su manera de “ver” el mundo. Unas veces, “inmerso” en él, puesto que solo lo separa del mismo, una frontera transparente, y “deseadamente” invisible: ese modo de usar el vidrio, ha sido el sueño imposible de una parte importante de la arquitectura del siglo XX. Otras veces, para “aislarse” de él, el hombre ha manipulado la luz y el vidrio para construir mundos diferentes. Las fronteras de vidrio enmascarado de color, mosaicos, vidrieras, pantallas y lo que hemos llamado vidrios complejos (con un cometido similar al que Schiller atribuía al coro en la tragedia griega, aislar a esta del “mundo real”, para mantener su libertad poética), son las fronteras que han construido el sueño posible de la arquitectura de cristal. Ambas actitudes, en distintos momentos de la historia de la arquitectura, han sido dos formas de querer materializar un mismo sueño. La capacidad del vidrio para adaptarse a tantos modos de presentarse ante nosotros, y a poder ser interpretado de tantas formas diferentes, es la que ha servido para dar título a la tesis, pues hasta en su faceta más transparente, el vidrio, de una forma o de otra, se ha mostrado siempre como un material enmascarado en el más amplio sentido de la palabra: se enmascara, incluso cuando apela a la transparencia o se convierte en espejo, para hacernos caer en la ilusión de que no está presente. Cuando el hombre construyó fronteras de vidrio e incluso antes, cuando soñó que con él podría llegar a construirlas, condensó en ellas toda la mítica, la mística y la epistemología en torno a la luz y la visión, dando lugar a una serie de arquetipos arquitectónicos. En la iglesia bizantina, la luz sobre, o la luz desde, los mosaicos, construyó una frontera titilante; y en la catedral gótica, la luz a través de las vidrieras construyó una frontera radiante; en ambos casos con el fin de alcanzar anagógicamente lo Inteligible. En el siglo XIX, con el descubrimiento de la electricidad y su incorporación a la arquitectura, las fronteras se vuelven fulgurantes, aviando, en este caso, el espacio urbano. Poco antes, en este mismo siglo, el espíritu del gótico tiene un efímero resurgir del que se nutrirá, a comienzos del siglo XX, el expresionismo cristalino, en el que la luz anagógica se hace laica. El espacio urbano fulgurante prefigurado por este movimiento y presente en las ciudades desde principios del siglo XX, fue potenciado a mediados de ese siglo con la aparición de las pantallas, extendiéndose desde entonces, imparable, por todo el planeta. La reciente emergencia de los vidrios complejos, ha abierto la posibilidad de construir fronteras a la carta (de vidrios de propiedades múltiples, seleccionadas de forma voluntaria y variable en cada momento). En principio, se pensó que, el uso de estos vidrios como cerramiento, podría llegar a constituirse como la panacea de los problemas del material relacionados con la luz-energía, sin necesidad de recurrir a “prótesis”, y manteniendo por tanto la seductora tersura de la fachada; aunque parece que, por ahora, esa posibilidad es, cuando menos, lejana. Sin embargo, en el campo de las megapantallas urbanas (y ,en general, en el de las pantallas de información), ubicuas actualmente en nuestras vidas, los vidrios complejos ayudan a construir los espesos velos de ilusión, que según Lefebvre sirven para mantener el capitalismo, siendo el último estadio de un desarrollo tecnológico, impuesto por el principio de economía del hombre, que como un metrónomo inexorable, y a modo de contrapunto, ha acompañado siempre (de nuevo en palabras de Lefebvre), a la necesidad del gasto, del juego, de la lucha, del arte, de la fiesta. La tecnología y el arte forman parte de la cultura producida por la sociedad y como señala Lévi-Strauss, esa cultura imprime orden; por el contrario, la sociedad, entendida como el conjunto de relaciones que los hombres mantienen entre sí, produce desorden. Del equilibrio entre esos extremos, surge el progreso, incluido el de la arquitectura. Las fronteras de vidrio que analizamos en la tesis –que avían espacios para la espiritualidad, el fasto y el espectáculo o, desde otro punto de vista, para las distintas manifestaciones del poder: la iglesia, la monarquía, el estado o el mercado– también han surgido de esa concomitancia entre el desorden y el orden; y forma parte de ese desorden, la aventura que ha impulsado al genio individual de místicos, alquimistas, geómetras, abades, reyes, inventores, poetas y arquitectos, a explorar, como escribe Apollinaire, vastos y extraños territorios donde el misterio en flor, se ofrece a quien quiera cogerlo, hogueras nuevas de colores nunca vistos, mil fantasmas imponderables a los que dar cuerpo. ABSTRACT According to Heidegger, the essence of architecture, building, lies in a non-space: the material that creates the boundaries from which something begins its presencing, radiating onto them that which characterizes them. If there is any single material amongst all those used throughout the history of architecture to build boundaries which has maintained a special relationship with light and vision, which has bestowed a distinctive character on spaces avid for them, it is glass. This is evidenced in some of its etymologies: zakû (to be clear), hyalos (transparent), vitrum (see). The rich potential of this fascinating way of relating to light in the history of the architectural use of glass, and even before, is possibly what has triggered the illusion in human imagination of being something that can ultimately sublimate all others, giving rise to what in this thesis we call The Dream of Crystal Architecture. Given that light is always energy, in this thesis we consider energy-light to be that which illuminates and warms. This is scientific, measurable light. When light "becomes visible" and reveals a message “contained” in glass, we speak of information-light. This light cannot be measured scientifically. Energy-light and information-light are manifested under the spell of glass architecture. The latter is what has shaped the boundaries of coloured glass, which is studied in this thesis. Architecture's different ways of using the infinite combinations of the absorptance, reflectance, transmittance and translucency of glass has affected the way we humans "see" the world. Sometimes we are "immersed" in it, since only an invisible, transparent boundary separates us from it: this use of glass has characterized a considerable part of 20th century architecture. In other cases, in order to "isolate" us from it, we have manipulated light and glass to build different worlds: the boundaries of glass "masked" by colour, mosaics, stained glass, screens and what we have called complex glazing, which plays a similar role to what Schiller attributed to the chorus in Greek tragedy, isolating it from the "real world" in order to maintain its poetic license. These are the boundaries that have built the viable dream of crystal architecture. These two approaches have been different ways of making same dream come true at different times in the history of architecture. The ability of glass to adapt to so many forms of manifestation, and interpretation, is what has given rise to the title of the thesis. Even in its most transparent facet, glass has one way or another always been a masking material in the broadest sense of the word: it is masked even when it invites transparency or becomes a mirror, triggering the illusion that it is not present. When man began to build glass boundaries, and even before, when he dreamed that he could build them, he condensed in them all the mythology, mysticism and epistemology concerning light and vision, which gave rise to a series of architectural archetypes. In the Byzantine church, light on or from mosaics created tenuous boundaries. In Gothic cathedrals, the light through the stained glass windows constructed radiant boundaries. In both cases the aim was to achieve, in an anagogical way, the Intelligible. In the 19th, the discovery of electricity and its use in architecture led to the production of dazzling boundaries, in this case employed in urban spaces. Earlier in the same century, the Gothic spirit had a short-lived revival, which in the early 20th century drew from crystalline expressionism in which anagogic light became secular. The dazzling urban space prefigured by this movement, present in cities since the early 20th century, was intensified in the mid-century with the emergence of screens, and since then it has spread unstoppably across the world. The recent emergence of complex glasses has made it possible to build boundaries on demand in glass with multiple properties, chosen at will and at whim at any time. Initially it was thought that the use of this glass as a wall could eventually become the panacea for the material problems related to energy-light, without needing to resort to "prosthesis" and thereby maintain the seductive smoothness of the facade. For now, that possibility seems remote, to say the least. In the realm of urban megascreens and information screens in general, now ubiquitous in our lives, complex glasses help to build the thick veils of illusion which, according to Lefebvre, serve to maintain capitalism. Like an inexorable metronome, in counterpoint, this ultimate state of technological development imposed by man's principle of economy has in fact always accompanied (again in the words of Lefebvre), the need to spend, play, fight, art, and party. Technology and art are part of the culture produced by society. As Levi-Strauss says, this culture imposes order. On the contrary, society, understood as a set of relationships amongst people, produces disorder. Progress, including that of architecture, arises from the balance between these two extremes. The glass boundaries analyzed in this thesis, which propitiate spaces for spirituality, pomp and spectacle or, from a different perspective, for the various manifestations of power: the church, the monarchy, the state and the market, have also emerged from the concomitance of order and disorder. One aspect of this disorder is the adventure that has inspired the individual genius of mystics, alchemists, surveyors, abbots, kings, inventors, poets and architects to explore, as Apollinaire says, vast, strange domains where flowering mystery offers itself to whoever wishes to pluck it, new fires, colours you have never seen before, a thousand intangible phantasms still awaiting reality.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La innovación en arquitectura reside en los desplazamientos: llevar el trópico a Dinamarca, un trasatlántico al centro de la ciudad, el pasado al presente, el presente al futuro y también lo profano a la academia. De estos últimos desplazamientos, habituales en la práctica de la teoría del proyecto, se ocupa esta tesis. La investigación profundizará en el tránsito de lo ordinario al archivo y viceversa, de lo hallado en un fragmento de paisaje existente desconocido para la literatura disciplinar: el territorio de la carretera CV500. Sus límites serán, en lo geográfico, el tramo entre Valencia y Sueca y, en lo temporal, los años desde el Plan de Urbanización del Saler en la época del desarrollismo de los 60s hasta La Ruta del Bacalao en la década de los 80s. El “intercambio innovador” será conducido a través de dos probados descriptores y formuladores de teoría de arquitectura a partir de relecturas de lo ordinario: Learning from Las Vegas y Delirious New York ABSTRACT Innovation in architecture resides on displacements: taking the tropics to Denmark and the ocean liners to the city centre, bringing the past to the present and taking the present to the future, and converting the ordinary into academia. This thesis will deal with this last displacement, common in the practice of project theory. The research will provide an in-depth view of the transition from the ordinary into cultural archives and vice versa, based on what was found in a fragment of an existing landscape absent from related literature: the territory of the CV500 road. The geographical limit will be the section between Valencia and Sueca, while the time limit will be the years from the Saler Zoning Plan during the economic development policy of the 1960s to the “Bacalao” clubbing route of the 1980s. The “innovative exchange” will be led through two proven architecture theory descriptors and formulators based on rereading the ordinary: Learning from Las Vegas and Delirious New York.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cover crop selection should be oriented to the achievement of specific agrosystem benefits. The covercrop, catch crop, green manure and fodder uses were identified as possible targets for selection. Theobjective was to apply multi-criteria decision analysis to evaluate different species (Hordeum vulgareL., Secale cereale L., ×Triticosecale Whim, Sinapis alba L., Vicia sativa L.) and cultivars according to theirsuitability to be used as cover crops in each of the uses. A field trial with 20 cultivars of the five specieswas conducted in Central Spain during two seasons (October?April). Measurements of ground cover, cropbiomass, N uptake, N derived from the atmosphere, C/N, dietary fiber content and residue quality werecollected. Aggregation of these variables through utility functions allowed ranking species and cultivarsfor each usage. Grasses were the most suitable for the cover crop, catch crop and fodder uses, while thevetches were the best as green manures. The mustard attained high ranks as cover and catch crop the firstseason, but the second decayed due to low performance in cold winters. Mustard and vetches obtainedworse rankings than grasses as fodder. Hispanic was the most suitable barley cultivar as cover and catchcrop, and Albacete as fodder. The triticale Titania attained the highest rank as cover and catch crop andfodder. Vetches Aitana and BGE014897 showed good aptitudes as green manures and catch crops. Thisanalysis allowed comparison among species and cultivars and might provide relevant information forcover crops selection and management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The dichotomy between two groups of workers on neuroelectrical activity is retarding progress. To study the interrelations between neuronal unit spike activity and compound field potentials of cell populations is both unfashionable and technically challenging. Neither of the mutual disparagements is justified: that spikes are to higher functions as the alphabet is to Shakespeare and that slow field potentials are irrelevant epiphenomena. Spikes are not the basis of the neural code but of multiple codes that coexist with nonspike codes. Field potentials are mainly information-rich signs of underlying processes, but sometimes they are also signals for neighboring cells, that is, they exert influence. This paper concerns opportunities for new research with many channels of wide-band (spike and slow wave) recording. A wealth of structure in time and three-dimensional space is different at each scale—micro-, meso-, and macroactivity. The depth of our ignorance is emphasized to underline the opportunities for uncovering new principles. We cannot currently estimate the relative importance of spikes and synaptic communication vs. extrasynaptic graded signals. In spite of a preponderance of literature on the former, we must consider the latter as probably important. We are in a primitive stage of looking at the time series of wide-band voltages in the compound, local field, potentials and of choosing descriptors that discriminate appropriately among brain loci, states (functions), stages (ontogeny, senescence), and taxa (evolution). This is not surprising, since the brains in higher species are surely the most complex systems known. They must be the greatest reservoir of new discoveries in nature. The complexity should not deter us, but a dose of humility can stimulate the flow of imaginative juices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geographical patterns of mtDNA variation were studied in 12 Italian samples (1072 individuals) by two different spatial autocorrelation methods. Separate analyses of the frequencies of 12 restriction morphs show North-South clines, differences between Sardinia and the mainland populations, and the effects of isolation by distance. A recently developed autocorrelation statistic summarizing molecular similarity at all sites (AIDA; autocorrelation index for DNA analysis) confirms the presence of a clinical pattern; differences between random pairs of haplotypes tend to increase with their geographical distance. The partition of gene diversity, however, reveals that most variability occurs within populations, whereas differences between populations are minor (GST = 0.057). When the data from the 12 samples are pooled, two descriptors of genetic variability (number of polymorphic sites and average sequence difference between pairs of individuals) do not behave as expected under neutrality. The presence of clinal patterns, Tajima's tests, and a simulation experiment agree in suggesting that population sizes increased rapidly in Italy and Sicily but not necessarily so in Sardinia. The distribution of pairwise sequence differences in the Italian peninsula (excluding Sardinia) permits a tentative location of the demographic increase between 8000 and 20,500 years ago. These dates are consistent with archaeological estimates of two distinct expansion processes, occurring, respectively, in the Neolithic and after the last glacial maximum in the Paleolithic. Conversely, there is no genetic evidence that such processes have had a major impact on the Sardinian population.