306 resultados para Procesado de señales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los años cincuenta y sesenta son los años de la incorporación definitiva de la arquitectura española al panorama internacional. Entre los arquitectos que protagonizan ese salto sin retorno, se encuentra el grupo de aquellos que unos años más tarde serán denominados por Juan Daniel Fullaondo como Escuela de Madrid. Carlos Flores, en su libro Arquitectura Española Contemporánea 1880-1950, se refiere a esos arquitectos como aquellos que se aplicaban a la difícil tarea de restablecer en España un tipo de arquitectura que conectaba con las teorías, soluciones y lenguajes establecidos por Europa durante las primeras décadas del siglo XX. Sigfried Giedion plantea en Espacio, Tiempo y Arquitectura el origen de una nueva tradición, surgida a partir de la revolución óptica de principios de siglo. Con tradición se refiere a una nueva cultura, que abarca la interrelación de las diferentes actividades del hombre: la similitud de los métodos que se usan en la arquitectura, la construcción, la pintura, el urbanismo o la ciencia. Esa novedad, fundamentada en su independencia y desvinculación con el periodo anterior, se inscribe dentro del esquema evolutivo que Thomas Kuhn plantea en su texto La Estructura de la Revoluciones Científicas, conforme a periodos no acumulativos. Kuhn habla del surgimiento de anomalías en cada periodo, origen de las crisis de pensamiento cuya explicación precisará un necesario cambio paradigmático. En la ciencia, en el campo de la óptica Thomas Young demuestra a principios del siglo XIX la naturaleza ondulatoria de la luz con su experimento de doble rendija; en el electromagnetismo se produce el salto conceptual que supone la postulación de la existencia del campo eléctrico por parte de Michael Faraday, y en termodinámica la consideración apuntada por Planck de que la radiación de la energía de produce de forma discreta, a través de cuantos. En las artes plásticas, paralelamente, Gleizes y Metzinger, en su recopilación de logros cubistas recogida en Sobre el Cubismo, hablan de la evolución sufrida durante el siglo XIX por la pintura: desde el idealismo de principios de siglo, para pasando por el realismo y la representación impresionista de la realidad, concluir prescindiendo de la perspectiva clásica. También la matemática, una vez desarrolladas por Gauss o Lobachevsky y Bolyai geometrías coherentes que incumplen el quinto postulado de Euclides, terminará dando validez a través de Riemann a los espacios ambiente en los que habitan dichas geometrías, desvinculando la relación directa entre espacio geométrico –el espacio ambiente al que da lugar un tipo de geometría- y el espacio físico. Capi Corrales refleja en su libro Contando el Espacio, cómo hasta la teoría de la relatividad y el cubismo, las geometrías no euclídeas no se hicieron notorias también fuera del campo de las matemáticas. El origen de la nueva tradición con la que Giedion se refiere a la nueva cultura de la modernidad coincide con los saltos paradigmáticos que suponen la teoría de la relatividad en las ciencias y el cubismo en las artes plásticas. Ambas se prolongan durante las primeras décadas hasta la teoría cuántica y la abstracción absoluta, barreras que los dos principales precursores de la relatividad y el cubismo, Einstein y Picasso, nunca llegan a franquear. En ese sentido Giedion habla también, además del origen, de su desarrollo, e incorpora las aportaciones periféricas en la arquitectura de Brasil, Japón o Finlandia, incluyendo por tanto la revisión orgánica propugnada por Zevi como parte de esa nueva tradición, quedando abierta a la incorporación tardía de nuevas aportaciones al desarrollo de esa cultura de la modernidad. Eliminado el concepto de la estética trascendental de Kant del tiempo como una referencia absoluta, y asumido el valor constante de la velocidad de la luz, para la teoría de la relatividad no existe una simultaneidad auténtica. Queda así fijada la velocidad de la luz como uno de los límites del universo, y la equivalencia entre masa y energía. En el cubismo la simultaneidad espacial viene motivada por la eliminación del punto de vista preferente, cuyo resultado es la multiplicidad descriptiva de la realidad, que se visualiza en la descomposición en planos, tanto del objeto como del espacio, y la consecuente continuidad entre fondo y figura que en arquitectura se refleja en la continuidad entre edificio y territorio. Sin la consideración de un punto de vista absoluto, no existe una forma auténtica. El cubismo, y su posterior desarrollo por las vanguardias plásticas, hacen uso de la geometría como mecanismo de recomposición de la figura y el espacio, adoptando mecanismos de penetración, superposición y transparencia. Gyorgy Kepes indica en El Lenguaje de la Visión que la descomposición cubista del objeto implica la sucesiva autonomía de los planos, hasta convertirse en elementos constituyentes. Algo que refleja las axonometrías arquitectónicas de Van Doesburg y que culmina con los espacios propuestos por Mies van der Rohe en sus primeros proyectos europeos. Estos mecanismos, encuentran eco en los primeros planteamientos de Javier Carvajal: en la ampliación del Panteón de españoles del cementerio de Campo Verano, un recinto virtual reconstruido mentalmente a partir del uso de tres únicos planos; o en el Pabellón de Nueva York, que organiza su planta baja desde el recorrido, introduciendo el parámetro temporal como una dimensión más. Al uso diferenciado del plano como elemento constituyente, Carvajal incorpora su plegado y su disposición conformando envolventes como mecanismo de cualificación espacial y formal, potenciando la prolongación entre arquitectura y territorio. Una continuidad que quedará culminada en las dos viviendas unifamiliares construidas en Somosaguas. La descomposición volumétrica conduce a unos niveles de abstracción que hace precisa la incorporación de elementos de la memoria -fuentes, patios, celosías…- a modo de red de señales, como las que Picasso y Braque introducen en sus cuadros para permitir su interpretación. Braque insiste en el interés por el espacio que rodea a los objetos. Una búsqueda de la tactilidad del espacio contraria a la perspectiva que aleja el objeto del observador, y que en los jardines de las viviendas de Somosaguas parece emanar de su propia materialidad. Un espacio táctil alejado del espacio geométrico y que Braque identifica con el espacio representativo en el que Poincaré, en La Ciencia y la Hipótesis, ubica nuestras sensaciones. Desdibujar los límites del objeto prolonga el espacio indefinidamente. Con el paso en el arte griego del mito al logos, se abre paso a la matemática como herramienta de comprensión de la naturaleza hasta el siglo XIX. Leon Lederman, en Simetría y la Belleza del Universo, apunta a que una de las mayores contribuciones de la teoría de Einstein es hacer cambiar el modo de pensar la naturaleza, orientándolo hacia la búsqueda de los principios de simetría que subyacen bajo las leyes físicas. Considerando que la simetría es la invariancia de un objeto o un sistema frente a una transformación y que las leyes físicas son las mismas en cualquier punto del espacio, el espacio de nuestro universo posee una simetría traslacional continua. En la ocupación del espacio de las primeras propuestas de Corrales y Molezún aparecen estructuras subyacentes que responden a enlosetados: paralelogramos sometidos a transformaciones continuas, que la naturaleza identifica tridimensionalmente con los grupos cristalográficos. Las plantas del museo de Arte Contemporáneo de la Castellana, la residencia de Miraflores, el pabellón de Bruselas o la torre Peugeot pertenecen a este grupo. La arquitectura como proceso de ocupación continua del territorio y de su trasposición al plano de cubierta, se materializa en líneas estructurales coincidentes con la estructura matemática de sus simetrías de traslación cuya posibilidad de prolongación infinita queda potenciada por el uso de la envolvente transparente. Junto a esta transparencia literal, inherente al material, Colin Rowe y Robert Slutzky nos alertan sobre otra transparencia inherente a la estructura: la transparencia fenomenal, ilustrada por los cuadros de Juan Gris, y cuya intuición aparece reflejada en la casa Huarte en Puerta de Hierro de Madrid. Corrales y Molezún insisten en una lectura de su volumetría alejada de la frontalidad, en la que los contornos de sus cubiertas inclinadas y las visuales tangenciales sugeridas por la organización de sus recorridos introducen una estructura diagonal que se superpone al entendimiento ortogonal de su planta, dibujando una intrincada red de líneas quebradas que permiten al espacio fluctuar entre las secuencia volumétrica propuesta. Los datos relativos al contenido energético de la luz y el concepto de átomo parten de la consideración de la emisión de energía en cuantos realizada por Planck, y concluyen con una circunstancia paradójica: la doble naturaleza de la luz -demostrada por la explicación de Einstein del efecto fotoeléctrico- y la doble naturaleza de la materia -asumida por Bohr y demostrada por el efecto Compton-. Schrödinger y Heisenberg formularán finalmente la ecuación universal del movimiento que rige en las ondas de materia, y cuya representación matemática es lo que se conoce como función de onda. El objeto es así identificado con su función de onda. Su ondulatoriedad expresará la probabilidad de encontrarse en un lugar determinado. Gyorgy Kepes subraya la necesidad de simplificar el lenguaje para pasar de la objetividad que aún permanece en la pintura cubista a la abstracción total del espacio. Y es así como los artistas plásticos reducen los objetos a simples formas geométricas, haciendo aflorar a la vez, las fuerzas plásticas que los tensionan o equilibran, en un proceso que acaba por eliminar cualquier atisbo de materia. Robert Rosenblum en La Pintura Moderna y la Tradición del Romanticismo Nórdico habla de cómo ese rechazo de la materia en favor de un vacío casi impalpable, campos luminosos de color denso que difunden un sereno resplandor y parecen engendrar las energías elementales de la luz natural, está directamente vinculado a la relación con la naturaleza que establece el romanticismo nórdico. La expresión de la energía de la naturaleza concentrada en un vacío que ya había sido motivo de reflexión para Michael Faraday en su postulación del concepto de campo eléctrico. Sáenz de Oíza incide en la expresión de la condición material de la energía en su propuesta junto a José Luis Romany para la capilla en el Camino de Santiago. La evocación de diferentes fuerzas electromagnéticas, las únicas junto a las gravitatorias susceptibles de ser experimentadas por el hombre, aparecerán visualizadas también en el carácter emergente de algunas de sus obras: el Santuario de Aránzazu o Torres Blancas; pero también en la naturaleza fluyente de sus contornos, la dispersión perimetral de los espacios -el umbral como centro del universoo la configuración del límite como respuesta a las tensiones germinales de la naturaleza. Miguel Fisac, a la vuelta de su viaje a los países nórdicos, aborda una simplificación lingüística orientada hacia la adecuación funcional de los espacios. En el Instituto de Daimiel, el Instituto de formación del profesorado o los complejos para los Padres Dominicos en Valladolid o Alcobendas, organiza progresivamente la arquitectura en diferentes volúmenes funcionales, incidiendo de un modo paralelo en la manifestación de los vínculos que se establecen entre dichos volúmenes como una visualización de las fuerzas que los tensionan y equilibran. En ellos la prolongación de la realidad física más allá de los límites de la envolvente ya es algo más que una simple intuición. Un proceso en el que el tratamiento de la luz como un material de construcción más, tendrá un especial protagonismo. En la iglesia de la Coronación, la iluminación del muro curvo escenifica la condición ondulatoria de la luz, manifestándose como si de un patrón de interferencia se tratara. Frente a la disolución de lo material, el espacio se manifiesta aquí como un medio denso, alejado de la tradicional noción de vacío. Una doble naturaleza, onda y partícula, que será intuido también por Fisac en la materia a través de su uso comprometido del hormigón como único material de construcción. Richard Feynmann nos alerta de la ocupación del espacio por multitud de fuerzas electromagnéticas que, al igual que la luz, precisan de receptores específicos para captar su presencia. Sus célebres diagramas suponen además la visualización definitiva de los procesos subatómicos. Al igual que la abstracción absoluta en las artes plásticas, esas representaciones diagramáticas no son asimilables a imágenes obtenidas de nuestra experiencia. Una intuición plasmada en el uso del diagrama, que irán adquiriendo progresivamente los dibujos de Alejandro de la Sota. La sección del gimnasio Maravillas recoge los trazos de sus principales elementos constructivos: estructura, cerramientos, compartimentaciones…, pero también, y con la misma intensidad, los de las fuerzas que generan su espacio, considerando así su condición de elementos constituyentes. El vacío, nos deja claro Sota, es el lugar donde habitan dichas tensiones. La posterior simplificación de las formas acompañadas de la obsesión por su aligeramiento, la casi desaparición de la envolvente, incide en aquella idea con la que Paul Klee define la actividad del artista en su Teoría del Arte Moderno, y en la que se transmite el distanciamiento hacia lo aparente: No se trata de reproducir lo visible, se trata de volver visible. Así, en Bankunión y Aviaco, como en tantos otros proyectos, frente al objetivo de la forma, Sota plantea el límite como la acotación de un ámbito de actuación. Su propia representación aséptica y diagramática transmite la renuncia a una especificidad espacial. Gilles Deleuze expresa ese posicionamiento en Pintura, el Concepto de Diagrama: el diagrama como la posibilidad de cuadros infinitos, o la posibilidad infinita de cuadros. Aparece así una concepción probabilística del espacio en la que frente a la renuncia por la forma, la tendencia al aligeramiento, y lo difuso de su definición – ideas claras, definición borrosa, en palabras de Llinás referidas al modo de operar de Sota-, la insistente atención a algunos elementos como escaleras, protecciones o miradores parece trasmitir la idea de que la arquitectura queda condensada en aquellos acontecimientos que delatan su condición dinámica, transitoria. Primando la relación frente al objeto, el vínculo frente a lo tangible. English summary. The fifties and sixties were the years of the final incorporation of Spanish architecture to the international scene. Among the architects who star that no return leap, is the group of those who a few years later will be named by Juan Daniel Fullaondo as Escuela de Madrid. Carlos Flores, in his book Arquitectura Española Contemporánea 1880-1950, refers to those architects as those that applied to the difficult task of restoring in Spain an architecture that connected with theories, solutions and established languages in Europe during the first decades of the twentieth century. Sigfried Giedion proposes in Space, Time and Architecture, the origin of a new tradition, arising from the optical revolution at the beginning of the century. With tradition he refers to a new culture, covering the interplay of different human activities: the similarity of the methods used in architecture, building, painting, urban planning or science. This new feature, based on its independence and detachment from the previous period, is part of the evolutionary scheme that Thomas Kuhn proposes in his text The Structure of Scientific Revolutions, according to non-accumulative periods. Kuhn talks about the emergence of anomalies in each period, origin of thought crisis whose explanation will require a paradigm shift needed. In science, in the field of optical Thomas Young demonstrates at the early nineteenth century the wave nature of light with its double-slit experiment , in electromagnetism the postulation of the existence of the electric field by Michael Faraday involves a conceptual leap, and in thermodynamic, the consideration pointed by Planck about quantum energy radiation. In the arts, in a parallel process, Gleizes and Metzinger , in his collection of cubism achievements on their book Du Cubisme, speak of evolution occurring during the nineteenth century by the painting: from the idealism of beginning of the century, going for realism and impressionist representation of reality, and finishing regardless of the classical perspective . Mathematics also, once developed by Gauss and Lobachevsky and Bolyai consistent geometries that violate Euclid's fifth postulate , will end validating Riemann’s ambient spaces in which these geometries inhabit, decoupling the direct relationship between geometric space -the space environment that results in a type of geometry- , and physical space. Capi Corrales reflectes in his book Contando el Espacio, that non-Euclidean geometries were not noticeable outside the field of mathematics until the theory of relativity and cubism. The origin of the new tradition that Giedion relates to the new culture of modernity coincides with paradigmatic leaps pointed by the theory of relativity in science and Cubism in the visual arts. Both are extended during the first decades until quantum theory and absolute abstraction, barriers that the two main precursors of relativity and cubism, Einstein and Picasso never overcome. In that sense Giedion speaks about the origin, but also the development, and incorporates peripheral inputs from Brazil, Japan and Finland architecture, thus including organic revision advocated by Zevi as part of this new tradition, being open to the late addition of new contributions to the development of that culture of modernity. Removed the concept of Kant's transcendental aesthetics, of time as an absolute reference, and assumed the constant value of the speed of light, theory of relativity says there is no authentic concurrency. It is thus fixed the speed of light as one of the limits of the universe, and the equivalence of mass and energy. In cubism, spatial simultaneity results from the elimination of preferential points of view, resulting in the multiplicity descriptive of reality, which is displayed in decomposition levels, both the object and the space, and the resulting continuity between figure and background that architecture is reflected in the continuity between building and land. Without the consideration of an absolute point of view, there isn’t an authentic shape. Cubism, and its subsequent development by the vanguard arts, make use of geometry as a means of rebuilding the figure and space, taking penetration mechanisms, overlapping and transparency. Gyorgy Kepes suggest in Languaje of Vision, that cubist decomposition of the object involves successive planes autonomy, to become constituent elements. Something that reflects the Van Doesburg’s architectural axonometrics and culminates with the spaces proposed by Mies van der Rohe in his first European projects. These mechanisms are reflected in the first approaches by Javier Carvajal: the extension of Spanish Pantheon in Campo Verano Cemetery, virtual enclosure mentally reconstructed from 24 the use of only three planes, or in the Spanish Pavilion of New York, which organizes its ground floor from the tour, introducing the time parameter as an additional dimension. Carvajal adds to the differential use of the plane as a constituent, Carvajal incorporates its folding and forming enclosures available as a mechanism for spatial and formal qualification, promoting the extension between architecture and territory. A continuity that will be completed in the two houses built in Somosaguas. Volumetric decomposition, as the fragmentation achieved in the last cubist experiences, needs the incorporation of elements of memory - fountains, patios, shutters...- as a network of signals, such as those introduced by Picasso and Braque in their paintings to allow their interpretation. Braque insists in his interest in the space surrounding the objects. A search of the tactility of space contrary to the perspective, which moves the observer away from the object, and that in the gardens of Somosaguas seems to emanate from its own materiality. A tactile space away from the geometric space and Braque identified with the representative space in which Poincaré in La Science et l´hypothèse, located our feelings. To blur those boundaries of the object extends the space indefinitely. With the passage in Greek art from myth to logos, it opens up to mathematics as a tool for understanding the nature until the nineteenth century. Leon Lederman, in Symmetry and beautiful Universe, suggests that one of the greatest contributions of Einstein's theory is to change the mindset of nature, namely the search for symmetry principles that underlie physical laws. Considering that symmetry is the invariance of an object or system from a transformation and that physical laws are the same at any point in space, the space of our universe has a continuous translational symmetry. In the space occupation of the first proposals by Corrales and Molezún underlying structures appear that match enlosetados: parallelograms under continuous transformations, which nature identifies tridimensionally with the crystallographic groups. Plants in the Contemporary Art Museum in La Castellana, the residence in Miraflores, the Brussels pavilion or the Peugeot tower belong to this group. The architecture as a process of continuous occupation of the territory and of its transposition to the deck, embodied in structural lines coincide with the mathematical structure of the translational symmetry and infinite extension whose possibility is enhanced by the use of the transparent cover. Alongside this literal transparency inherent to the material, Colin Rowe and Robert Slutzky alert us another transparency inherent in the structure: phenomenal transparency, illustrated by the Juan Gris’ works, and whose intuition is reflected in the Huarte’s house in Puerta de Hierro in Madrid. Corrales and Molezún insist on a reading of its volume away from the frontal, in which the outline of their inclined roofs and tangential visual suggested by the organization of his circulations introduce a diagonal structure which overlaps the orthogonal understanding of its plant, drawing an intricate web of broken lines that allow the space fluctuate between the volumetric sequence proposal. Information concerning to the energy mean of light and the concept of atom start from the consideration by Plank about the energy emission, and conclude with a paradoxical situation: the dual nature of light - demonstrated by the explanation of Einstein's photoelectric effect-, and the dual nature of matter -assumed by Bohr and demonstrated by the Compton effect-. Finally, Schrödinger and Heisenberg will formulate the universal movement equation governing in undulatory matter, whose mathematical representation is what is known as a wave function. The object is thus identified with its wave function. Its undulatory expression speaks about the probability of being found in a certain place. Gyorgy Kepes emphasizess the need to simplify the language to move from the objectivity that still remains in the cubist painting to the total abstraction of the space. And this is how artists reduced the objects to simple geometric shapes, making emerge at a time, the plastic forces that tense or balance them, in a process that eventually eliminate any trace of matter. Robert Rosenblum in Modern Painting and the Northern Romantic Tradition. Friedrich to Rothko talks about how this rejection of matter in an almost impalpable vacuum: dense color light fields that broadcast a serene glow and seem to generate the elemental energies of natural light is directly linked to the relationship with nature that sets the northern romanticism. An expression of the power of nature concentrated in a vacuum which had been reason for thought by Michael Faraday in his application of the concept of electric field. Saenz de Oíza touches upon the material expression of the energy in its proposal with Jose Luis Romany to the chapel on the Camino de Santiago. The presence of electromagnetic forces, the only ones with the gravitational one capable of being experienced by the man will also visualize in the emerging nature of some of his works: the sanctuary of Aránzazu or Torres Blancas, but also in the flowing nature of its contours, and the inclusion of interest in the realization of space fluctuating boundary: the threshold as the center of the universe. Miguel Fisac, back from his trip to the Northern Countries, starts on a linguistic simplification oriented to the functional adequacy of spaces. In the Daimiel Institute, in the Institute to Teacher Formation or in the complex to the Dominican Fathers in Valladolid or Alcobendas, progressively organized into different functional volumes architecture, focusing in a parallel way in the manifestation of the links established between these volumes as a visualization of the forces that tense and balance them. The prolongation of the physical reality beyond the limits of the envelope is already something more than a simple intuition. A process in which the treatment of light as a construction material, have a special role. In the Coronation church, curved wall lighting dramatizes the undulatory condition of the light, manifesting as if an interference pattern is involved. Versus the dissolution of the material, the space is expressed here as a dense atmosphere, away from the traditional notion of the vacuum. A dual nature, wave and particle, which is also sensed by Fisac in his committed use of concrete as a unique construction material. Richard Feynman alerts us to the occupation of space by many electromagnetic forces, which like the light, require specific receptors to capture their presence. His famous diagrams also involve the final visualization of atomic processes. As absolute abstraction in the visual arts, these representations are not assimilated to images obtained from our experience. A diagrammatic nature, abstracted from figuration, which will obtein the pictures of Alejandro de la Sota. The section of Maravillas gym collects traces of its main building blocks: structure, enclosures... but also, and with the same intensity, of the forces that generate their space as constituent elements. Sota makes it clear: the vacuum is where inhabit these tensions. The subsequent simplification of forms, accompanied by the obsession with his lightening, the near disappearance of the envelope, touches upon that idea which Paul Klee defines the activity of the artist in his Modern Art Theory, the spacing out to the apparent: it is not to reproduce the visible, it is to turn visible. Thus, in Bankunión and Aviaco, as in many other projects, against the shape, raises the limit as the dimension of a scope. His own aseptic and diagrammatic representation transmits waiver to a spatial specificity that Gilles Deleuze clearly expressed in Painting. The Concept Diagram: The diagram as the possibility of infinite pictures, or infinite possibility of the picture. Thus appears the probabilistic concept of space in which, opposite to the diffuse of its definition -clear ideas, diffuse definition, as Llinas said- the insistent attention to some elements like stairs, guards or lookouts seems to concentrate the architecture in its dynamic condition, transitional. The relationship opposite the object, the link opposite the tangible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we propose a novel fast random search clustering (RSC) algorithm for mixing matrix identification in multiple input multiple output (MIMO) linear blind inverse problems with sparse inputs. The proposed approach is based on the clustering of the observations around the directions given by the columns of the mixing matrix that occurs typically for sparse inputs. Exploiting this fact, the RSC algorithm proceeds by parameterizing the mixing matrix using hyperspherical coordinates, randomly selecting candidate basis vectors (i.e. clustering directions) from the observations, and accepting or rejecting them according to a binary hypothesis test based on the Neyman–Pearson criterion. The RSC algorithm is not tailored to any specific distribution for the sources, can deal with an arbitrary number of inputs and outputs (thus solving the difficult under-determined problem), and is applicable to both instantaneous and convolutive mixtures. Extensive simulations for synthetic and real data with different number of inputs and outputs, data size, sparsity factors of the inputs and signal to noise ratios confirm the good performance of the proposed approach under moderate/high signal to noise ratios. RESUMEN. Método de separación ciega de fuentes para señales dispersas basado en la identificación de la matriz de mezcla mediante técnicas de "clustering" aleatorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Monte Carlo techniques, which require the generation of samples from some target density, are often the only alternative for performing Bayesian inference. Two classic sampling techniques to draw independent samples are the ratio of uniforms (RoU) and rejection sampling (RS). An efficient sampling algorithm is proposed combining the RoU and polar RS (i.e. RS inside a sector of a circle using polar coordinates). Its efficiency is shown in drawing samples from truncated Cauchy and Gaussian random variables, which have many important applications in signal processing and communications. RESUMEN. Método eficiente para generar algunas variables aleatorias de uso común en procesado de señal y comunicaciones (por ejemplo, Gaussianas o Cauchy truncadas) mediante la combinación de dos técnicas: "ratio of uniforms" y "rejection sampling".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente documento se hablará acerca del desarrollo de un proyecto para la mejora de un programa de análisis de señales; con ese fin, se hará uso de técnicas de optimización del software y de tecnologías de aceleración, mediante el aprovechamiento del paralelismo del programa. Además se hará un análisis de acerca del uso de dos tecnologías basadas en diferentes paradigmas de programación paralela; una mediante múltiples hilos con memoria compartida y la otra mediante el uso de GPUs como dispositivos de coprocesamiento. This paper will talk about the development of a Project to improve a program that does signals analysis; to that end, it will make use of software optimization techniques and acceleration technologies by exploiting parallelism in the program. In Addition will be done an analysis on the use of two technologies based on two different paradigms; one using multiple threads with shared memory and the other using GPU as co-processing devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los análisis sísmicos por reflexión existe una creciente demanda de estimaciones geológicas y geométricas más precisas y sofisticadas. En último término se pretende extraer estimaciones fiables de las secciones de reflexión, estimaciones que afectan a parámetros tales como la velocidad de propagación, densidad y, por supuesto, contenido de hidrocarburos. Ello exige gran precisión en las técnicas de procesado y representación gráfica, pudiendo decirse que los métodos gráficos interactivos son clave en las tendencias futuras de prospección. Un área de investigación actual es el procesado y representación de datos representados por "horizontes". Un horizonte sísmico se define como la superficie que separa dos capas diferentes de roca. Estas interfases están asociadas a reflexiones que se pueden identificar claramente en las secciones sísmicas. Usando una pantalla gráfica adecuada estos horizontes aparecen coloreados en la sección,pudiendo tornarse puntos selectos para definirlas. Si se utilizan secciones concentradas ("stacked") es preciso determinar la posición correcta de las interfases. Es el proceso llamado "emigración". Tradicionalmente se han aplicado fórmulas de representación o transformaciones integrales para realizar este proceso. Sin embargo es suficiente hacer emigrar las curvas seleccionadas (superficies en el caso 3-D) que representan menos del 1% del total de los datos, con lo que el tiempo de CPU se reduce considerablemente. Si se desprecia la información sobre amplitudes, fases y frecuencias la teoría de rayos es el método más rápido y simple para la conversión en profundidad, poniéndose todo el énfasis en el proceso interactivo y en la representación gráfica. Puesto que en estructuras complejas, como las del Mar del Norte o las del Norte de Alemania, las funciones de velocidad nunca se conocen con precisión, es preciso repetir la emigración mediante diferentes velocidades especificadas por el usuario en forma interactiva. En este artículo se presenta la aplicación del procedimiento para horizontes de separación nula (zero-offset sections) y al final se indica la posibilidad de extensión del estudio a casos con separación constante y al análisis de velocidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal del presente trabajo es estudiar y explotar estructuras que presentan un gas bidimensional de electrones (2DEG) basadas en compuestos nitruros con alto contenido de indio. Existen muchas preguntas abiertas, relacionadas con el nitruro de indio y sus aleaciones, algunas de las cuales se han abordado en este estudio. En particular, se han investigado temas relacionados con el análisis y la tecnología del material, tanto para el InN y heteroestructuras de InAl(Ga)N/GaN como para sus aplicaciones a dispositivos avanzados. Después de un análisis de la dependencia de las propiedades del InN con respecto a tratamientos de procesado de dispositivos (plasma y térmicos), el problema relacionado con la formación de un contacto rectificador es considerado. Concretamente, su dificultad es debida a la presencia de acumulación de electrones superficiales en la forma de un gas bidimensional de electrones, debido al pinning del nivel de Fermi. El uso de métodos electroquímicos, comparados con técnicas propias de la microelectrónica, ha ayudado para la realización de esta tarea. En particular, se ha conseguido lamodulación de la acumulación de electrones con éxito. En heteroestructuras como InAl(Ga)N/GaN, el gas bidimensional está presente en la intercara entre GaN y InAl(Ga)N, aunque no haya polarización externa (estructuras modo on). La tecnología relacionada con la fabricación de transistores de alta movilidad en modo off (E-mode) es investigada. Se utiliza un método de ataque húmedo mediante una solución de contenido alcalino, estudiando las modificaciones estructurales que sufre la barrera. En este sentido, la necesidad de un control preciso sobre el material atacado es fundamental para obtener una estructura recessed para aplicaciones a transistores, con densidad de defectos e inhomogeneidad mínimos. La dependencia de la velocidad de ataque de las propiedades de las muestras antes del tratamiento es observada y comentada. Se presentan también investigaciones relacionadas con las propiedades básicas del InN. Gracias al uso de una puerta a través de un electrolito, el desplazamiento de los picos obtenidos por espectroscopia Raman es correlacionado con una variación de la densidad de electrones superficiales. En lo que concierne la aplicación a dispositivos, debido al estado de la tecnología actual y a la calidad del material InN, todavía no apto para dispositivos, la tesis se enfoca a la aplicación de heteroestructuras de InAl(Ga)N/GaN. Gracias a las ventajas de una barrera muy fina, comparada con la tecnología de AlGaN/GaN, el uso de esta estructura es adecuado para aplicaciones que requieren una elevada sensibilidad, estando el canal 2DEG más cerca de la superficie. De hecho, la sensibilidad obtenida en sensores de pH es comparable al estado del arte en términos de variaciones de potencial superficial, y, debido al poco espesor de la barrera, la variación de la corriente con el pH puede ser medida sin necesidad de un electrodo de referencia externo. Además, estructuras fotoconductivas basadas en un gas bidimensional presentan alta ganancia debida al elevado campo eléctrico en la intercara, que induce una elevada fuerza de separación entre hueco y electrón generados por absorción de luz. El uso de metalizaciones de tipo Schottky (fotodiodos Schottky y metal-semiconductormetal) reduce la corriente de oscuridad, en comparación con los fotoconductores. Además, la barrera delgada aumenta la eficiencia de extracción de los portadores. En consecuencia, se obtiene ganancia en todos los dispositivos analizados basados en heteroestructuras de InAl(Ga)N/GaN. Aunque presentando fotoconductividad persistente (PPC), los dispositivos resultan más rápidos con respeto a los valores que se dan en la literatura acerca de PPC en sistemas fotoconductivos. ABSTRACT The main objective of the present work is to study and exploit the two-dimensionalelectron- gas (2DEG) structures based on In-related nitride compounds. Many open questions are analyzed. In particular, technology and material-related topics are the focus of interest regarding both InNmaterial and InAl(Ga)N/GaNheterostructures (HSs) as well as their application to advanced devices. After the analysis of the dependence of InN properties on processing treatments (plasma-based and thermal), the problemof electrical blocking behaviour is taken into consideration. In particular its difficulty is due to the presence of a surface electron accumulation (SEA) in the form of a 2DEG, due to Fermi level pinning. The use of electrochemical methods, compared to standard microelectronic techniques, helped in the successful realization of this task. In particular, reversible modulation of SEA is accomplished. In heterostructures such as InAl(Ga)N/GaN, the 2DEGis present at the interface between GaN and InAl(Ga)N even without an external bias (normally-on structures). The technology related to the fabrication of normally off (E-mode) high-electron-mobility transistors (HEMTs) is investigated in heterostructures. An alkali-based wet-etching method is analysed, standing out the structural modifications the barrier underwent. The need of a precise control of the etched material is crucial, in this sense, to obtain a recessed structure for HEMT application with the lowest defect density and inhomogeneity. The dependence of the etch rate on the as-grown properties is observed and commented. Fundamental investigation related to InNis presented, related to the physics of this degeneratematerial. With the help of electrolyte gating (EG), the shift in Raman peaks is correlated to a variation in surface eletron density. As far as the application to device is concerned, due to the actual state of the technology and material quality of InN, not suitable for working devices yet, the focus is directed to the applications of InAl(Ga)N/GaN HSs. Due to the advantages of a very thin barrier layer, compared to standard AlGaN/GaN technology, the use of this structure is suitable for high sensitivity applications being the 2DEG channel closer to the surface. In fact, pH sensitivity obtained is comparable to the state-of-the-art in terms of surface potential variations, and, due to the ultrathin barrier, the current variation with pH can be recorded with no need of the external reference electrode. Moreover, 2DEG photoconductive structures present a high photoconductive gain duemostly to the high electric field at the interface,and hence a high separation strength of photogenerated electron and hole. The use of Schottky metallizations (Schottky photodiode and metal-semiconductor-metal) reduce the dark current, compared to photoconduction, and the thin barrier helps to increase the extraction efficiency. Gain is obtained in all the device structures investigated. The devices, even if they present persistent photoconductivity (PPC), resulted faster than the standard PPC related decay values.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atrial fibrillation (AF) is a common heart disorder. One of the most prominent hypothesis about its initiation and maintenance considers multiple uncoordinated activation foci inside the atrium. However, the implicit assumption behind all the signal processing techniques used for AF, such as dominant frequency and organization analysis, is the existence of a single regular component in the observed signals. In this paper we take into account the existence of multiple foci, performing a spectral analysis to detect their number and frequencies. In order to obtain a cleaner signal on which the spectral analysis can be performed, we introduce sparsity-aware learning techniques to infer the spike trains corresponding to the activations. The good performance of the proposed algorithm is demonstrated both on synthetic and real data. RESUMEN. Algoritmo basado en técnicas de regresión dispersa para la extracción de las señales cardiacas en pacientes con fibrilación atrial (AF).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuestro cerebro contiene cerca de 1014 sinapsis neuronales. Esta enorme cantidad de conexiones proporciona un entorno ideal donde distintos grupos de neuronas se sincronizan transitoriamente para provocar la aparición de funciones cognitivas, como la percepción, el aprendizaje o el pensamiento. Comprender la organización de esta compleja red cerebral en base a datos neurofisiológicos, representa uno de los desafíos más importantes y emocionantes en el campo de la neurociencia. Se han propuesto recientemente varias medidas para evaluar cómo se comunican las diferentes partes del cerebro a diversas escalas (células individuales, columnas corticales, o áreas cerebrales). Podemos clasificarlos, según su simetría, en dos grupos: por una parte, la medidas simétricas, como la correlación, la coherencia o la sincronización de fase, que evalúan la conectividad funcional (FC); mientras que las medidas asimétricas, como la causalidad de Granger o transferencia de entropía, son capaces de detectar la dirección de la interacción, lo que denominamos conectividad efectiva (EC). En la neurociencia moderna ha aumentado el interés por el estudio de las redes funcionales cerebrales, en gran medida debido a la aparición de estos nuevos algoritmos que permiten analizar la interdependencia entre señales temporales, además de la emergente teoría de redes complejas y la introducción de técnicas novedosas, como la magnetoencefalografía (MEG), para registrar datos neurofisiológicos con gran resolución. Sin embargo, nos hallamos ante un campo novedoso que presenta aun varias cuestiones metodológicas sin resolver, algunas de las cuales trataran de abordarse en esta tesis. En primer lugar, el creciente número de aproximaciones para determinar la existencia de FC/EC entre dos o más señales temporales, junto con la complejidad matemática de las herramientas de análisis, hacen deseable organizarlas todas en un paquete software intuitivo y fácil de usar. Aquí presento HERMES (http://hermes.ctb.upm.es), una toolbox en MatlabR, diseñada precisamente con este fin. Creo que esta herramienta será de gran ayuda para todos aquellos investigadores que trabajen en el campo emergente del análisis de conectividad cerebral y supondrá un gran valor para la comunidad científica. La segunda cuestión practica que se aborda es el estudio de la sensibilidad a las fuentes cerebrales profundas a través de dos tipos de sensores MEG: gradiómetros planares y magnetómetros, esta aproximación además se combina con un enfoque metodológico, utilizando dos índices de sincronización de fase: phase locking value (PLV) y phase lag index (PLI), este ultimo menos sensible a efecto la conducción volumen. Por lo tanto, se compara su comportamiento al estudiar las redes cerebrales, obteniendo que magnetómetros y PLV presentan, respectivamente, redes más densamente conectadas que gradiómetros planares y PLI, por los valores artificiales que crea el problema de la conducción de volumen. Sin embargo, cuando se trata de caracterizar redes epilépticas, el PLV ofrece mejores resultados, debido a la gran dispersión de las redes obtenidas con PLI. El análisis de redes complejas ha proporcionado nuevos conceptos que mejoran caracterización de la interacción de sistemas dinámicos. Se considera que una red está compuesta por nodos, que simbolizan sistemas, cuyas interacciones se representan por enlaces, y su comportamiento y topología puede caracterizarse por un elevado número de medidas. Existe evidencia teórica y empírica de que muchas de ellas están fuertemente correlacionadas entre sí. Por lo tanto, se ha conseguido seleccionar un pequeño grupo que caracteriza eficazmente estas redes, y condensa la información redundante. Para el análisis de redes funcionales, la selección de un umbral adecuado para decidir si un determinado valor de conectividad de la matriz de FC es significativo y debe ser incluido para un análisis posterior, se convierte en un paso crucial. En esta tesis, se han obtenido resultados más precisos al utilizar un test de subrogadas, basado en los datos, para evaluar individualmente cada uno de los enlaces, que al establecer a priori un umbral fijo para la densidad de conexiones. Finalmente, todas estas cuestiones se han aplicado al estudio de la epilepsia, caso práctico en el que se analizan las redes funcionales MEG, en estado de reposo, de dos grupos de pacientes epilépticos (generalizada idiopática y focal frontal) en comparación con sujetos control sanos. La epilepsia es uno de los trastornos neurológicos más comunes, con más de 55 millones de afectados en el mundo. Esta enfermedad se caracteriza por la predisposición a generar ataques epilépticos de actividad neuronal anormal y excesiva o bien síncrona, y por tanto, es el escenario perfecto para este tipo de análisis al tiempo que presenta un gran interés tanto desde el punto de vista clínico como de investigación. Los resultados manifiestan alteraciones especificas en la conectividad y un cambio en la topología de las redes en cerebros epilépticos, desplazando la importancia del ‘foco’ a la ‘red’, enfoque que va adquiriendo relevancia en las investigaciones recientes sobre epilepsia. ABSTRACT There are about 1014 neuronal synapses in the human brain. This huge number of connections provides the substrate for neuronal ensembles to become transiently synchronized, producing the emergence of cognitive functions such as perception, learning or thinking. Understanding the complex brain network organization on the basis of neuroimaging data represents one of the most important and exciting challenges for systems neuroscience. Several measures have been recently proposed to evaluate at various scales (single cells, cortical columns, or brain areas) how the different parts of the brain communicate. We can classify them, according to their symmetry, into two groups: symmetric measures, such as correlation, coherence or phase synchronization indexes, evaluate functional connectivity (FC); and on the other hand, the asymmetric ones, such as Granger causality or transfer entropy, are able to detect effective connectivity (EC) revealing the direction of the interaction. In modern neurosciences, the interest in functional brain networks has increased strongly with the onset of new algorithms to study interdependence between time series, the advent of modern complex network theory and the introduction of powerful techniques to record neurophysiological data, such as magnetoencephalography (MEG). However, when analyzing neurophysiological data with this approach several questions arise. In this thesis, I intend to tackle some of the practical open problems in the field. First of all, the increase in the number of time series analysis algorithms to study brain FC/EC, along with their mathematical complexity, creates the necessity of arranging them into a single, unified toolbox that allow neuroscientists, neurophysiologists and researchers from related fields to easily access and make use of them. I developed such a toolbox for this aim, it is named HERMES (http://hermes.ctb.upm.es), and encompasses several of the most common indexes for the assessment of FC and EC running for MatlabR environment. I believe that this toolbox will be very helpful to all the researchers working in the emerging field of brain connectivity analysis and will entail a great value for the scientific community. The second important practical issue tackled in this thesis is the evaluation of the sensitivity to deep brain sources of two different MEG sensors: planar gradiometers and magnetometers, in combination with the related methodological approach, using two phase synchronization indexes: phase locking value (PLV) y phase lag index (PLI), the latter one being less sensitive to volume conduction effect. Thus, I compared their performance when studying brain networks, obtaining that magnetometer sensors and PLV presented higher artificial values as compared with planar gradiometers and PLI respectively. However, when it came to characterize epileptic networks it was the PLV which gives better results, as PLI FC networks where very sparse. Complex network analysis has provided new concepts which improved characterization of interacting dynamical systems. With this background, networks could be considered composed of nodes, symbolizing systems, whose interactions with each other are represented by edges. A growing number of network measures is been applied in network analysis. However, there is theoretical and empirical evidence that many of these indexes are strongly correlated with each other. Therefore, in this thesis I reduced them to a small set, which could more efficiently characterize networks. Within this framework, selecting an appropriate threshold to decide whether a certain connectivity value of the FC matrix is significant and should be included in the network analysis becomes a crucial step, in this thesis, I used the surrogate data tests to make an individual data-driven evaluation of each of the edges significance and confirmed more accurate results than when just setting to a fixed value the density of connections. All these methodologies were applied to the study of epilepsy, analysing resting state MEG functional networks, in two groups of epileptic patients (generalized and focal epilepsy) that were compared to matching control subjects. Epilepsy is one of the most common neurological disorders, with more than 55 million people affected worldwide, characterized by its predisposition to generate epileptic seizures of abnormal excessive or synchronous neuronal activity, and thus, this scenario and analysis, present a great interest from both the clinical and the research perspective. Results revealed specific disruptions in connectivity and network topology and evidenced that networks’ topology is changed in epileptic brains, supporting the shift from ‘focus’ to ‘networks’ which is gaining importance in modern epilepsy research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los objetivos principales de esta Tesis Doctoral fueron estudiar en 4 ensayos los efectos a) del procesado del maíz y la inclusión en los piensos de ingredientes de alta calidad como harina de pescado o fuentes de lactosa en lechones blancos b) inclusión en el pienso de diferentes productos derivados del haba de soja, con diferente contenido de proteína bruta (PB), tamaño de partícula y origen en lechones blancos e ibéricos y c) inclusión en el pienso de lechones ibéricos de ingredientes de alta calidad; forma de presentación del pienso y la duración del suministro del pienso prestárter sobre los parámetros productivos, la digestibilidad de los nutrientes, y las características morfológicas de la mucosa digestiva en lechones blancos e ibéricos recién destetados. En el experimento 1, los efectos de la complejidad del pienso prestárter sobre los parámetros productivos y la digestibilidad total aparente (TTAD) de los nutrientes fueron estudiados en lechones blancos recién destetados. Se utilizaron 10 tratamientos experimentales como resultado de 5 piensos prestárter (21 a 41 d de edad) y 2 piensos estárter (42 a 62 d de edad). Los piensos prestárter consistieron en un control negativo que incluía 40% de maíz crudo, 4% de harina de pescado y 7% de lactosa, un control positivo que incluía 40% de maíz cocido, 10% de harina de pescado, y 14% de lactosa, y 3 piensos adicionales con similares ingredientes que el pienso control positivo pero en los que a) 40% de maíz cocido fue sustituido por el mismo porcentaje de maíz crudo, b) se redujo el nivel de harina de pescado del 10 al 4%, y c) se redujo el nivel de lactosa del 14 al 7%. Cada tratamiento se replicó 6 veces (6 lechones/departamento). De 42 a 62 d de edad, la mitad de cada uno de los 5 piensos prestárter recibió un pienso estándar compuesto por harina de soja- maíz crudo y manteca y la otra mitad un pienso con similar perfil nutricional pero incluyendo un 20% de maíz cocido, 5% de harina de pescado, 1.3% de lactosa, 2% de concentrado de proteína de soja obtenido por fermentación y 1% de aceite de soja en lugar de harina de soja, maíz sin procesar y manteca. La complejidad del pienso no afectó a los parámetros productivos en ninguno de los periodos estudiados, pero el índice de diarreas durante la fase prestárter fue mayor en los lechones que recibieron el pienso control negativo que en los alimentados con cualquiera de los otros piensos (P<0.05). A los 30 días de edad (piensos prestárter), la digestibilidad de la materia orgánica (MO) y de la energía bruta (EB) fue menor (P<0.001) en los lechones que consumieron el pienso control negativo que en los lechones que consumieron cualquiera de los otros piensos. Sin embrago, la digestibilidad fecal de la PB no fue afectada. A los 50 días de edad (piensos estárter), la digestibilidad de los nutrientes fue similar en ambos piesnsos. Se concluye que la utilización de niveles elevados de ingredientes de alta calidad en los piensos no mejora los parámetros productivos de los lechones blancos en ninguno de los períodos estudiados. De 21 a 41 días de edad, el índice de diarreas se redujo y la digestibilidad de los nutrientes aumentó con la utilización de piensos de mayor calidad. Por lo tanto, la utilización de piensos con niveles elevados de ingredientes de calidad para reducir problemas digestivos y por lo tanto, mejorar los parámetros productivos podría estar justificada en algunos casos. En el experimento 2, se estudiaron los efectos de la inclusión en el pienso de harina de soja con diferente contenido de PB (44 vs. 49 % PB), la micronización de la harina de soja de alta proteína (AP-HS; 49% PB) y la utilización de concentrado de proteína de soja (CPS; 65% PB) sobre los parámetros productivos y la TTAD de los nutrientes en lechones blancos recién destetados de 28 a 63 días de edad. De 28 a 49 días de edad (fase I), hubo un pienso control positivo con un 10% de CPS, un pienso control negativo con 14.8% de harina de soja estándar (R-HS; 44% de PB) y otros 4 piensos que incluían 13.3% de AP-HS de origen Americano (USA) o Argentino (ARG) y molidas groseramente (980 μm) o micronizadas (80 μm). Cada tratamiento se replicó 8 veces (6 lechones/departamento). De 49 a 63 días de edad (fase II), todos los lechones recibieron un pienso comercial común en forma de harina. En el global de la fase I, el tratamiento experimental no afectó a ninguno de los parámetros productivos estudiados. Sin embargo, de 28 a 35 días de edad, los lechones alimentados con AP-HS micronizadas tuvieron un mejor índice de conversión (IC; 1.11 vs. 0.98; P<0.05) que los alimentados con AP-HS molidas groseramente. También, de 35 a 42 días de edad, los lechones que recibieron el pienso con AP-HS micronizada tendieron (P=0.08) a consumir más pienso que los lechones que consumieron el pienso con AP-HS molida. Durante la fase II (49 a 63 días de edad), cuando todos los lechones recibieron un pienso común, no se observaron diferencias en productividad de los lechones debido al tratamiento previo. En general, la digestibilidad de los nutrientes a los 35 días de edad fue mayor para los lechones que consumieron CPS que para los lechones que consumieron R-HS con los lechones que consumieron AP-HS en una posición intermedia. La digestibilidad de la PB fue mayor (P≤0.01) para el pienso que contenía CPS que para el promedio de los 5 tratamientos en base a HS. También, la digestibilidad de la MO y de la materia seca (MS) fue mayor para el pienso que contenía AP-HS micronizada o molida groseramente que para el pienso que contenía R-HS. La micronización de la AP-HS no tuvo efecto alguno sobre la digestibilidad de los nutrientes. Se concluye que cuando el CPS sustituye en el pienso a R-HS, la digestibilidad de la PB aumenta pero no tiene efecto alguno sobre los parámetros productivos. La utilización de AP-HS en sustitución de R-HS en el pienso mejora la digestibilidad de los nutrientes pero no afecta a los parámetros productivos. La utilización de harina de soja micronizada en los piensos mejora la eficiencia alimenticia durante la primera semana post-destete pero no tiene efecto alguno sobre la digestibilidad de los nutrientes. En general, la inclusión de productos derivados del haba de soja con un alto valor añadido (CPS o AP-HS) en el pienso presenta pocas ventajas en términos productivos al uso de AP-HS en lechones blancos recién destetados. En el experimento 3, se estudiaron los mismos productos de soja y piensos similares al experimento 2 en lechones ibéricos recién destetados. Además de los parámetros productivos y la TTAD de los nutrientes, en este ensayo se estudió también la digestibilidad ileal aparente (AID) de los nutrientes, así como las características histológicas y morfometría de la mucosa ileal. Cada uno de los 6 tratamientos fue replicado 6 veces (6 lechones/departamento). De 30 a 51 días de edad la fuente de harina de soja no afectó a los parámetros productivos, pero el índice de diarreas fue mayor (P<0.001) y la TTAD y AID de los nutrientes menor en los lechones alimentados con R-HS que en los alimentados con CPS o AP-HS. Sin embargo, no se encontró ninguna diferencia para éstos parámetros entre los piensos que contenían AP-HS y CPS. La TTAD de la MO (P=0.07) y de la EB (P=0.05) tendieron a ser mayores en los piensos basados en AP-HS micronizada que en los basados en AP-HS molida. La TTAD de la EB tendió (P<0.05) a ser mayor para la AP-HS de origen USA que para la AP-HS de origen ARG. Los lechones que consumieron R-HS presentaron villi de menor longitud (P<0.01) que los lechones que consumieron AP-HS o CPS, pero no se observaron diferencias en el caso de los lechones que recibieron los piensos que contenían AP-HS o CPS. Se concluye que la inclusión de AP-HS o CPS en el pienso en sustitución de R-HS reduce el índice de diarreas y mejora la digestibilidad de los nutrientes y las características morfológicas del íleon sin afectar a los parámetros productivos. La utilización de piensos basados en productos derivados del haba de soja con mayor valor añadido (CPS o AP-HS) en sustitución de la R-HS, mejora la TTAD de todos los nutrientes y reduce el índice de diarreas si llegar afectar a los parámetros productivos. En el experimento 4 se estudiaron los efectos del contenido de PB y la complejidad del pienso, la presentación física y la duración del suministro del pienso prestárter sobre los parámetros productivos y la TTAD de los nutrientes en lechones ibéricos recién destetados de 28 a 63 días de edad. Hubo 12 tratamientos experimentales con 2 tipos de pienso (AC; calidad alta y BC: calidad media), 2 presentaciones del pienso (gránulo y harina) y 3 duraciones de suministro del pienso prestárter (7, 14 y 21 días). Desde los 7, 14 y 21 días de experimento (dependiendo del tratamiento), hasta los 35 días, todos los lechones recibieron un pienso comercial en forma de harina. Cada uno de los tratamientos fue replicado 3 veces (6 lechones/departamento). En el global del experimento, la ganancia media diaria (GMD; P<0.05) y el consumo medio diario (CMD; P<0.01) fue menor en los lechones que recibieron el pienso AC que para los que recibieron el pienso de BC, si bien el IC no se vio afectado. La granulación del pienso prestárter no afectó a los crecimientos pero mejoró la eficiencia alimenticia. La utilización del pienso prestárter de 0 a 21 días de prueba mejoró el IC (P<0.05), pero redujo la GMD (P<0.01) en comparación con la utilización de éste pienso solo durante 7 o 14 días. El índice de diarreas tendió a ser mayor (P=0.06) en los lechones alimentados con los piensos AC que en los alimentados con los piensos BC. Asimismo, el índice de diarreas fue superior en los lechones que recibieron el pienso en gránulo que los que los recibieron en harina (P<0.001). Además, el índice de diarreas fue superior en los lechones que recibieron el pienso prestárter durante 14 o 21 días que en los que lo recibieron solo durante 7 días (P<0.01). De 28 a 49 días de edad, la GMD y el IC no se vieron afectados por la complejidad del pienso, pero la presentación en gránulo o el aumento en la duración de suministro del pienso prestárter mejoró el IC (P<0.01). También, en este periodo el índice de diarreas fue mayor en lechones alimentados con piensos granulados que aquellos alimentados con piensos en harina. Asimismo, fue superior para los lechones alimentados con el pienso prestárter durante 14 o 21 días que para los que recibieron éste pienso solo durante 7 días (P<0.01). De 49 a 63 días de edad, los lechones que previamente habían recibido piensos BC crecieron más que los que recibieron piensos AC (P<0.001). Asimismo, los lechones que recibieron el pienso prestárter durante 21 días comieron (P< 0.001) y crecieron menos (P<0.05) presentando una peor eficacia alimenticia (P<0.05) que los lechones que lo recibieron solo durante 7 14 días. La digestibilidad de la MO fue mayor en los lechones alimentados con los piensos AC que en los alimentados con piensos BC (P<0.05). La granulación del pienso mejoró la digestibilidad de los principales nutrientes. Los piensos prestárter AC mejoraron la digestibilidad de los nutrientes pero no la eficiencia alimenticia en lechones ibéricos de 28 a 63 días de edad. La granulación del pienso mejoró la eficiencia alimenticia. El aumento del suministro del pienso prestárter de 7 a 21 días mejoró la eficiencia alimenticia pero redujo la GMD. Por lo tanto, la utilización de piensos granulados de alta calidad durante el periodo prestárter es recomendable en lechones ibéricos, pero solo durante la primera semana post-destete. ABSTRACT The main objectives of this PhD Thesis were to study the effects of a) heat processing (HP) of corn and inclusion of high quality ingredients of animal origin such as fish meal (FM) and dried milk products in the diet, b) inclusion of different soy products varying in crude protein (CP) content, particle size, and origin of the beans in diets for conventional white and Iberian weanling pigs, and c) effects of ingredient quality, feed form, and duration of supply of the phase I diets on growth performance, nutrient digestibility, and intestinal morphology of weanling pigs. In experiment 1, the effect of diet complexity on total tract apparent digestibility (TTAD) and growth performance was studied in piglets from 21 to 62 d of age. There were 10 experimental treatments which resulted from the combination of 5 phase I (21 to 41 d of age) and 2 phase II (42 to 62 d of age) diets. The 5 phase I diets consisted of a negative control diet that contained 40 % raw corn, 4% FM, and 7% lactose (LAC); a positive control diet that contained 40 % HP corn, 10% FM, and 14% LAC, and 3 extra diets that used similar ingredients to those of the positive control diet but in which a) 40% of HP corn was substituted by raw corn, b) 4% FM rather than 10% FM, and c) 7% LAC instead of 14% LAC were included in the diet. Each treatment was replicated 6 times (6 pigs per pen). From 42 to 62 d of age, half of the pens of each of the 5 phase I treatments received a standard soybean meal (SBM)–native corn–lard diet wheras the other half received a diet with similar nutrient profile but that included 20% HP corn, 5% FM, 1.3% lactosa, 2% fermented soy protein concentrate, and 1% soybean oil in substitution of variables amounts of non-processed corn, SBM, and lard. Dietary treatment did not affect piglet performance at any age, but the incidence of post-weaning diarrhea (PWD) was higher during phase I in piglets fed the negative control diet than in piglets fed any of the other diets (P<0.05). At 30 d of age (phase I diets), the TTAD of organic matter (OM) and gross energy (GE) was lower (P<0.001) in pigs fed the negative control diet than in pigs fed the other diets but CP digestibility was not affected. At 50 d of age (phase II diets), dietary treatment did not affect TTAD of any dietary component. It is concluded that the use of high quality ingredients at high levels in the diet did not improve growth performance of piglets at any age. From 21 to 41 d of age, PWD was reduced and nutrient digestibility was increased in pigs fed the more complex diets. Consequently, the inclusion of high levels of high quality ingredients in piglet diets to maximize growth performance might not be justified under all circumstances In experiment 2, the effect of CP content (44 vs. 49 % CP) of SBM, micronization (fine grinding) of the high CP SBM (HP-SBM; 49% CP), and soy protein concentrate (SPC; 65% CP) on TTAD and growth performance was studied in conventional white piglets from 28 to 63 d of age. From 28 to 49 d of age (phase I), there was a positive control diet that included 6.5% CP from SPC and a negative control diet that supplied the same amount of CP as regular SBM (R-SBM; 44% CP) of Argentina (ARG) origin. The other 4 diets included the same amount of dietary CP from 2 sources of HP-SBM (USA or ARG origin), either ground (990 μm) or micronized (60 μm). Each treatment was replicated 8 times (6 pigs per pen). From 49 to 63 d of age (phase II), all pigs were fed a common commercial starter diet. For the entire phase I, type of soy product included in the diet did not affect growth performance of the pigs. However, from 28 to 35 d of age pigs fed the micronized HP-SBM had better feed conversion ratio (FCR; 0.90 vs. 1.01; P<0.05) than pigs fed the ground HP-SBM. Also, from 35 to 42 d of age, average daily feed intake (ADFI) tended to be higher (P=0.08) for pigs fed the micronized HP-SBM than for pigs fed the ground HP-SBM. During phase II, when all the pigs received the same diet, no differences among treatments were observed. In general, the TTAD of nutrients at 35 d of age was higher for the SPC than for the R-SBM diet with the HP-SBM diets being intermediate. The TTAD of CP was higher (83.8% vs. 81.9%; P≤0.01) for the SPC diet than for the average of 5 SBM containing diets. Also, the digestibility of OM and dry matter (DM) was higher (P<0.01) for the HP-SBM, either ground or micronized, than for the R-SBM diet. Micronization of the HP-SBM did not affect nutrient digestibility. It is concluded that when R-SBM was substituted by SPC, CP digestibility was improved but no effects on growth performance were observed. The use of HP-SBM in substitution of R-SBM in the diet improved nutrient digestibility but did not affect piglet performance. The inclusion of micronized HP-SBM in the diet improved FCR during the first week post-weaning but did not affect TTAD of nutrients. Therefore, the inclusion of added value soy products (SPC or micronized SBM) in the diet presents little advantage in terms of growth performance over the use of HP-SBM in pigs weaned at 28 d of age. In experiment 3, the effects of the same sources of soy protein used in experiment 2 on TTAD and growth performance of crossbreed Iberian pigs from 30 to 61 d of age were studied. In addition, the apparent ileal digestibility (AID) of nutrients and mucosa ileum morphology were also determined. Dietary treatment did not affect growth performance of the pigs at any age but from 30 to 51 d of age (phase I diets), PWD was higher (P<0.001) and the TTAD and AID of all nutrients were lower for pigs fed the R-SBM diet than for pigs fed the HP-SBM or the SPC diets. However, no differences between the HP-SBM and the SPC containing diets were detected for digestibility of any dietary component. The TTAD of OM (P=0.07) and GE (P=0.05) tended to be higher for the micronized HP-SBM than for the ground HP-SBM and that of GE was higher (P<0.05) for the USA meal than for the ARG meal. Pigs fed R-SBM had lower villus height (P<0.01) than pigs fed HP-SBM or SPC but no differences in ileal mucosal morphology were detected between SPC and HP-SBM containing diets. It is concluded that feeding the HP-SBM or SPC in substitution of R-SBM reduced PWD and improved nutrient digestibility and ileal morphology in piglets as compared with feeding the R-SBM, but had no effect on growth performance. The inclusion in the diet of added value soy products (micronized SBM or SPC) in substitution of the R-SBM increased the TTAD of all nutrients and reduced PWD but had no advantage in terms of growth performance over the use of ground HP-SBM. In experiment 4, the effect of CP content and ingredient complexity, feed form, and duration of feeding of the phase I diets on growth performance and TTAD of nutrients were studied in Iberian pigs from 28 to 63 d of age. There were 12 dietary treatments with 2 type of feeds (HQ; higher quality and LQ; medium quality), 2 feed forms (pellets vs. mash), and 3 durations of supply (7, 14, and 21 d) of the phase I diets. From d 7, 14, or 21 (depending on treatment) to d 35 of experiment, all pigs received a common diet in mash form. Each treatment was replicated 3 times (6 pigs/pen). For the entire experiment, average daily gain (ADG; P<0.05) and ADFI (P<0.01) were lower with the HQ than with the LQ phase I diets but FCR was not affected. Pelleting of the phase I diets did not affect ADG but improved FCR (P<0.01). Feeding the phase I diets from d 0 to 21 improved FCR (P<0.05) but decreased ADG (P<0.01) as compared with 7 or 14 d of feeding. Post-weaning diarrhea tended to be higher (P=0.06) for pigs fed the HQ diets than for pigs fed the LQ diets and for pigs fed pellets than for pigs fed mash (P<0.001). Also, PWD was higher for pigs fed the phase I diet for 14 or 21 d than for pigs fed this diet for 7 d (P<0.01). From d 0 to 21, ADG and FCR were not affected by feed quality but feeding pellets or increasing the duration of feeding the phase I diets improved FCR (P<0.01). Also, in this period PWD was higher with pellets than with mash and for pigs fed the phase I diets for 14 or 21 d than for pigs fed this diet for only 7 d (P<0.01). From d 21 to 35, pigs previously fed the LQ diet had higher ADG than pigs fed the HQ phase I diets (P<0.001). Also, pigs that were fed the phase I diets for 21 d had lower ADG (P<0.05) and ADFI (P< 0.001) and poor FCR (P<0.05) than pigs fed these diets for 7 or 14 d. Organic matter digestibility was higher for pigs fed the HQ phase I diets than for pigs fed the LQ phase I diets (P<0.05). Pelleting improved TTAD of all nutrients (P<0.01). It is concluded that HQ phase I diets increased TTAD of nutrients but not feed efficiency of Iberian pigs from d 28 to 63 d of age. Also, pelleting improved nutrient digestibility and feed efficiency. Increasing the duration of supply of the phase I diets from 7 to 21 d improved feed efficiency but reduced ADG. Therefore, the use of LQ phase I diets in pellet form for no more than 7 d after weaning is recommended in Iberian pigs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis que tiene por título "Contribución a los arrays de antenas activos en banda X", ha sido desarrollada por el estudiante de doctorado Gonzalo Expósito Domínguez, ingeniero de telecomunicación en el Grupo de Radiación del Departamento de Señales, Sistemas y Radiocomunicaciones de la ETSI de Telecomunicación de la Universidad Politécnica de Madrid bajo la dirección de los doctores Manuel Sierra Castañer y José Manuel Fernández González. Esta tesis contiene un profundo estudio del arte en materia de antenas activas en el campo de apuntamiento electrónico. Este estudio comprende desde los fundamentos de este tipo de antenas, problemas de operación y limitaciones hasta los sistemas actuales más avanzados. En ella se identifican las partes críticas en el diseño y posteriormente se llevan a la práctica con el diseño, simulación y construcción de un subarray de una antena integrada en el fuselaje de un avión para comunicaciones multimedia por satélite que funciona en banda X. El prototipo consta de una red de distribución multihaz de banda ancha y una antena planar. El objetivo de esta tesis es el de aplicar nuevas técnicas al diseño de antenas de apuntamiento electrónico. Es por eso que las contribuciones originales son la aplicación de barreras electromagnéticas entre elementos radiantes para reducir los acoplamientos mutuos en arrays de exploración electrónica y el diseño de redes desfasadoras sencillas en las que no son necesarios complejos desfasadores para antenas multihaz. Hasta la fecha, las barreras electromagnéticas, Electronic Band Gap (EBG), se construyen en sustratos de permitividad alta con el fin de aumentar el espacio disponible entre elementos radiantes y reducir el tamaño de estas estructuras. Sin embargo, la utilización de sustratos de alta permitividad aumenta la propagación por ondas de superficie y con ellas el acoplo mutuo. Utilizando sustratos multicapa y colocando la vía de las estructuras en su borde, en vez de en su centro, se consigue reducir el tamaño sin necesidad de usar sustratos de alta permitividad, reducir la eficiencia de radiación de la antena o aumentar la propagación por ondas de superficie. La última parte de la tesis se dedica a las redes conmutadoras y desfasadoras para antenas multihaz. El diseño de las redes de distribución para antenas son una parte crítica ya que se comportan como un atenuador a la entrada de la cadena receptora, modificando en gran medida la figura de ruido del sistema. Las pérdidas de un desfasador digital varían con el desfase introducido, por ese motivo es necesario caracterizar y calibrar los dispositivos correctamente. Los trabajos presentados en este manuscrito constan de un desfasador reflectivo con un conmutador doble serie paralelo para igualar las pérdidas de inserción en los dos estados y también un conmutador de una entrada y dos salidas cuyos puertos están adaptados en todo momento independientemente del camino del conmutador para evitar las reflexiones y fugas entre redes o elementos radiantes. El tomo finaliza con un resumen de las publicaciones en revistas científicas y ponencias en congresos, nacionales e internacionales, el marco de trabajo en el que se ha desarrollado, las colaboraciones que se han realizado y las líneas de investigación futuras. ABSTRACT This thesis was carried out in the Radiation Group of the Signals, Systems and Radiocomunications department of ETSI de Telecomunicación from Technical University of Madrid. Its title is "Contribution to active array antennas at X band" and it is developed by Gonzalo Expósito Domínguez, Electrical Engineer MsC. under the supervision of Prof. Dr. Manuel Sierra Castañer and Dr. José Manuel Fernández González. This thesis is focused on active antennas, specifically multibeam and electronic steering antenas. In the first part of the thesis a thorough description of the state of the art is presented. This study compiles the fundamentals of this antennas, operation problems and limits, up to the breakthrough applications. The critical design problems are described to use them eventually in the design, simulation and prototyping of an airborne steering array antenna for satellite communication at X band. The main objective of this thesis is to apply new techniques to the design of electronically steering antennas. Therefore the new original contributions are the application of Electromagnetic Band Gap materials (EBG) between radiating elements to reduce the mutual coupling when phase shift between elements exist and phase shifting networks where special characteristics are required. So far, the EBG structures have been constructed with high permitivity substrates in order to increase the available space between radiating elements and reduce the size of the structures. However, the surface wave propagation modes are enhanced and therefore the mutual coupling increases when high permitivity substrates are used. By using multilayered substrates and edge location via, the size is reduced meanwhile low permitivity substrates are used without reducing the radiation efficiency or enhancing the surface propagation modes. The last part of the thesis is focused on the phase shifting distribution networks for multibeam antennas. This is a critical part in the antenna design because the insertion loss in the distribution network behaves as an attenuator located in the first place in a receiver chain. The insertion loss will affect directly to the receiver noise figure and the insertion loss in a phase shifter vary with the phase shift. Therefore the devices must be well characterized and calibrated in order to obtain a properly operation. The work developed in this thesis are a reflective phase shifter with a series-shunt switch in order to make symmetrical the insertion loss for the two states and a complex Single Pole Double Through (SPDT) with matched ports in order to reduce the reflections and leakage between feeding networks and radiating elements. The end of this Ph D. dissertation concludes with a summary of the publications in national and international conferences and scientific journals, the collaborations carried out along the thesis and the future research lines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuevas aplicaciones tecnológicas y científicas mediante amarras electrodinámicas son analizadas para misiones planetarias. i) Primero, se considera un conjunto de amarras cilíndricas en paralelo (veleros electrosolares) para una misión interplanetaria. Los iones provenientes del viento solar son repelidos por el alto potencial de dichas amarras generando empuje sobre el velero. Para conocer el intercambio de momento que provocan los iones sobre las amarras se ha considerado un modelo de potencial estacionario. Se ha analizado la transferencia orbital de la Tierra a Júpiter siguiendo un método de optimización de trayectoria indirecto. ii) Una vez que el velero se encuentra cerca de Júpiter, se ha considerado el despliegue de una amarra para diferentes objetivos científicos. iia) Una amarra podría ser utilizada para diagnóstico de plasmas, al ser una fuente efectiva de ondas, y también como un generador de auroras artificiales. Una amarra conductora que orbite en la magnetosfera jovial es capaz de producir ondas. Se han analizado las diferentes ondas radiadas por un conductor por el que circula una corriente constante que sigue una órbita polar de alta excentricidad y bajo apoápside, como ocurre en la misión Juno de la NASA. iib) Además, se ha estudiado una misión tentativa que sigue una órbita ecuatorial (LJO) por debajo de los intensos cinturones de radiación. Ambas misiones requiren potencia eléctrica para los sistemas de comunicación e instrumentos científicos. Las amarras pueden generar potencia de manera más eficiente que otros sistemas que utlizan paneles solares o sistemas de potencia de radioisótopos (RPS). La impedancia de radiación es necesaria para determinar la corriente que circula por todo el circuito de la amarra. En un modelo de plasma frío, la radiación ocurre principalmente en los modos de Alfven y magnetosónica rápida, mostrando un elevado índice de refracción. Se ha estudiado la impedancia de radiación en amarras con recubrimiento aislante para los dos modos de radiación y cada una de las misiones. A diferencia del caso ionosférico terrestre, la baja densidad y el intenso campo magnético que aparecen en el entorno de Júpiter consiguen que la girofrecuencia de los electrones sea mucho mayor que la frecuencia del plasma; esto hace que el espectro de potencia para cada modo se modifique substancialmente, aumentando la velocidad de Alfven. Se ha estimado también la impedancia de radiación para amarras sin aislante conductor. En la misión LJO, un vehículo espacial bajando lentamente la altitud de su órbita permitiría estudiar la estructura del campo magnético y composición atmosférica para entender la formación, evolución, y estructura de Júpiter. Adicionalmente, si el contactor (cátodo) se apaga, se dice que la amarra flota eléctricamente, permitiendo emisión de haz de electrones que generan auroras. El continuo apagado y encendido produce pulsos de corriente dando lugar a emisiones de señales, que pueden ser utilizadas para diagnóstico del plasma jovial. En Órbita Baja Jovial, los iones que impactan contra una amarra polarizada negativamente producen electrones secundarios, que, viajando helicoidalmente sobre las líneas de campo magnético de Júpiter, son capaces de alcanzar su atmósfera más alta, y, de esta manera, generar auroras. Se han identificado cuáles son las regiones donde la amarra sería más eficiente para producir auroras. iic) Otra aplicación científica sugerida para la misión LJO es la detección de granos cargados que orbitan cerca de Júpiter. Los electrones de alta energía en este ambiente pueden ser modelados por una distribucción no Maxwelliana conocida como distribución kappa. En escenarios con plasmas complejos, donde los campos eléctricos en Júpiter pueden acelerar las cargas hasta velocidades que superen la velocidad térmica, este tipo de distribuciones son muy útiles. En este caso las colas de las distribuciones de electrones siguen una ley de potencias. Se han estudiado las fluctuaciones de granos cargados para funciones de distribución kappa. iii) La tesis concluye con el análisis para deorbitar satélites con amarras electrodinámicas que siguen una Órbita Baja Terrestre (LEO). Una amarra debe presentar una baja probabilidad de corte por pequeño debris y además debe ser suficientemente ligero para que el cociente entre la masa de la amarra y el satélite sea muy pequeño. En este trabajo se estiman las medidas de la longitud, anchura y espesor que debe tener una amarra para minimizar el producto de la probabilidad de corte por el cociente entre las masas de la amarra y el satélite. Se presentan resultados preliminares del diseño de una amarra con forma de cinta para deorbitar satélites relativamente ligeros como Cryosat y pesados como Envisat. Las misiones espaciales a planetas exteriores y en el ámbito terrestre plantean importantes retos científico-tecnológicos que deben ser abordados y solucionados. Por ello, desde el inicio de la era espacial se han diseñando novedosos métodos propulsivos, sistemas de guiado, navegación y control más robustos, y nuevos materiales para mejorar el rendimiento de los vehículos espaciales (SC). En un gran número de misiones interplanetarias y en todas las misiones a planetas exteriores se han empleado sistemas de radioisótopos (RPS) para generar potencia eléctrica en los vehículos espaciales y en los rovers de exploración. Estos sistemas emplean como fuente de energía el escaso y costoso plutonio-238. La NASA, por medio de un informe de la National Academy of Science (5 de Mayo del 2009), expresó una profunda preocupación por la baja cantidad de plutonio almacenado, insuficiente para desarrollar todas las misiones de exploración planetaria planeadas en el futuro [81, 91]. Esta circustancia ha llevado a dicha Agencia tomar la decisión de limitar el uso de estos sistemas RPS en algunas misiones de especial interés científico y una recomendación de alta prioridad para que el Congreso de los EEUU apruebe el reestablecimiento de la producción de plutonio-238, -son necesarios cerca de 5 kg de este material radiactivo al año-, para salvaguardar las misiones que requieran dichos sistemas de potencia a partir del año 2018. Por otro lado, la Agencia estadounidense ha estado considerando el uso de fuentes de energía alternativa; como la fisión nuclear a través del ambicioso proyecto Prometheus, para llevar a cabo una misión de exploración en el sistema jovial (JIMO). Finalmente, dicha misión fue desestimada por su elevado coste. Recientemente se han estado desarrollando sistemas que consigan energía a través de los recursos naturales que nos aporta el Sol, mediante paneles solares -poco eficientes para misiones a planetas alejados de la luz solar-. En este contexto, la misión JUNO del programa Nuevas Fronteras de la NASA, cuyo lanzamiento fue realizado con éxito en Agosto de 2011, va a ser la primera misión equipada con paneles solares que sobrevolará Júpiter en el 2015 siguiendo una órbita polar. Anteriormente se habían empleado los antes mencionados RPS para las misiones Pioneer 10,11, Voyager 1,2, Ulysses, Cassini-Huygens y Galileo (todas sobrevuelos excepto Galileo). Dicha misión seguirá una órbita elíptica de alta excentricidad con un periápside muy cercano a Júpiter, y apoápside lejano, evitando que los intensos cinturones de radiación puedan dañar los instrumentos de navegación y científicos. Un tether o amarra electrodinámica es capaz de operar como sistema propulsivo o generador de potencia, pero también puede ser considerado como solución científicotecnológica en misiones espaciales tanto en LEO (Órbita Baja Terrestre) como en planetas exteriores. Siguiendo una perspectiva histórica, durante las misiones terrestres TSS-1 (1992) y TSS-1R (1996) se emplearon amarras estandard con recubrimiento aislante en toda su longitud, aplicando como terminal anódico pasivo un colector esférico para captar electrones. En una geometría alternativa, propuesta por J. R. Sanmartín et al. (1993) [93], se considedejar la amarra sin recubrimiento aislante (“bare tether”), y sin colector anódico esférico, de forma que recogiera electrones a lo largo del segmento que resulta polarizado positivo, como si se tratara de una sonda de Langmuir de gran longitud. A diferencia de la amarra estandard, el “bare tether” es capaz de recoger electrones a lo largo de una superficie grande ya que este segmento es de varios kilómetros de longitud. Como el radio de la amarra es del orden de la longitud de Debye y pequeño comparado con el radio de Larmor de los electrones, permite una recolección eficiente de electrones en el régimen OML (Orbital Motion Limited) de sondas de Langmuir. La corriente dada por la teoría OML varía en función del perímetro y la longitud. En el caso de una cinta delgada, el perímetro depende de la anchura, que debe ser suficientemente grande para evitar cortes producidos por debris y micrometeoritos, y suficientemente pequeño para que la amarra funcione en dicho régimen [95]. En el experimento espacial TSS-1R mencionado anteriormente, se identificó una recolección de corriente más elevada que la que predecía el modelo teórico de Parker- Murphy, debido posiblemente a que se utilizaba un colector esférico de radio bastante mayor que la longitud de Debye [79]. En el caso de una amarra “bare”, que recoge electrones a lo largo de gran parte de su longitud, se puede producir un fenómeno conocido como atrapamiento adiabático de electrones (adiabatic electron trapping) [25, 40, 60, 73, 74, 97]. En el caso terrestre (LEO) se da la condición mesotérmica en la que la amarra se mueve con una velocidad muy superior a la velocidad térmica de los iones del ambiente y muy inferior a la velocidad térmica de los electrones. J. Laframboise y L. Parker [57] mostraron que, para una función de distribución quasi-isotrópica, la densidad de electrones debe entonces ser necesariamente inferior a la densidad ambiente. Por otra parte, debido a su flujo hipersónico y a la alta polarización positiva de la amarra, la densidad de los iones es mayor que la densidad ambiente en una vasta región de la parte “ram” del flujo, violando la condición de cuasi-neutralidad,-en una región de dimensión mayor que la longitud de Debye-. La solución a esta paradoja podría basarse en el atrapamiento adiabático de electrones ambiente en órbitas acotadas entorno al tether. ABSTRACT New technological and scientific applications by electrodynamic tethers for planetary missions are analyzed: i) A set of cylindrical, parallel tethers (electric solar sail or e-sail) is considered for an interplanetary mission; ions from the solar wind are repelled by the high potential of the tether, providing momentum to the e-sail. An approximated model of a stationary potential for a high solar wind flow is considered. With the force provided by a negative biased tether, an indirect method for the optimization trajectory of an Earth-to-Jupiter orbit transfer is analyzed. ii) The deployment of a tether from the e-sail allows several scientific applications in Jupiter. iia) It might be used as a source of radiative waves for plasma diagnostics and artificial aurora generator. A conductive tether orbiting in the Jovian magnetosphere produces waves. Wave radiation by a conductor carrying a steady current in both a polar, highly eccentric, low perijove orbit, as in NASA’s Juno mission, and an equatorial low Jovian orbit (LJO) mission below the intense radiation belts, is considered. Both missions will need electric power generation for scientific instruments and communication systems. Tethers generate power more efficiently than solar panels or radioisotope power systems (RPS). The radiation impedance is required to determine the current in the overall tether circuit. In a cold plasma model, radiation occurs mainly in the Alfven and fast magnetosonic modes, exhibiting a large refraction index. The radiation impedance of insulated tethers is determined for both modes and either mission. Unlike the Earth ionospheric case, the low-density, highly magnetized Jovian plasma makes the electron gyrofrequency much larger than the plasma frequency; this substantially modifies the power spectrum for either mode by increasing the Alfven velocity. An estimation of the radiation impedance of bare tethers is also considered. iib) In LJO, a spacecraft orbiting in a slow downward spiral under the radiation belts would allow determining magnetic field structure and atmospheric composition for understanding the formation, evolution, and structure of Jupiter. Additionally, if the cathodic contactor is switched off, a tether floats electrically, allowing e-beam emission that generate auroras. On/off switching produces bias/current pulses and signal emission, which might be used for Jovian plasma diagnostics. In LJO, the ions impacting against the negative-biased tether do produce secondary electrons, which racing down Jupiter’s magnetic field lines, reach the upper atmosphere. The energetic electrons there generate auroral effects. Regions where the tether efficiently should produce secondary electrons are analyzed. iic) Other scientific application suggested in LJO is the in-situ detection of charged grains. Charged grains naturally orbit near Jupiter. High-energy electrons in the Jovian ambient may be modeled by the kappa distribution function. In complex plasma scenarios, where the Jovian high electric field may accelerate charges up superthermal velocities, the use of non-Maxwellian distributions should be considered. In these cases, the distribution tails fit well to a power-law dependence for electrons. Fluctuations of the charged grains for non-Mawellian distribution function are here studied. iii) The present thesis is concluded with the analysis for de-orbiting satellites at end of mission by electrodynamic tethers. A de-orbit tether system must present very small tether-to-satellite mass ratio and small probability of a tether cut by small debris too. The present work shows how to select tape dimensions so as to minimize the product of those two magnitudes. Preliminary results of tape-tether design are here discussed to minimize that function. Results for de-orbiting Cryosat and Envisat are also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Infociudad es el espacio informacional donde los humanos de sociedades desarrolladas, mediante terminales con botones, teclas, pantallas, contraseñas e identificadores varios, se comunican y llevan a cabo una parte creciente de sus actividades habituales y otras muchas nuevas, convertidas en señales, lenguajes y procesos inmateriales,soportados por una potente infraestructura tecnológica de arquitectura reticular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es conocido por la literatura, los dispositivos ópticos biestables pueden tener un amplio uso en campos, como las comunicaciones ópticas, donde la extracción de señales a partir del ruido es necesitada. En este trabajo se comentan los resultados que se obtienen al enlazar dos puntos mediante comunicación óptica atmosférica, al emplear en recepción un dispositivo biestable electroóptico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La electricidad y la electrónica han sido, habitualmente, los elementos bási­cos para el desarrollo de las comunicaciones a través de medios guiados. Desde el viejo telégrafo hasta los modernos sistemas de transmisión de televisión por cable, todas las técnicas empleadas han tenido en común el envío de una señal eléctrica a través de un elemento con­ductor. De igual manera a como llega la electricidad a los hogares, por medio de un cable metálico, el teléfono, el télex, el facsímil... todos ellos emplean una técni­ca en cierta manera análoga: una corriente eléctrica, llevando con ella la información deseada, accede a un equipo capaz de convertirla en señal reconocible por el usuario. En ocasiones, cuan­do la frecuencia de la señal transmitida es lo suficientemente alta, puede no ser una corriente eléctrica análoga a la empleada, por ejemplo, para alimentar los electrodomésticos convencionales. En esas circunstancias la información es transportada por un campo electromag­nético y el medio por el que se desplaza puede ser una guía metálica hueca. Pero todos los elementos que la rodean siguen estando basados en conceptos derivados del manejo de corrientes eléc­tricas y en su procesado mediante técni­cas, en general, electrónicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los problemas más habituales que se presentan cuando se emplean dispositivos biestables híbridos ópticos (BHO) para la limitación de señales láser y, consecuentemente, para la limitación de un cierto tipo de ruido es la derivada de que la curva que da la intensidad de salida en función de la de entrada (Iout/Iin), no ofrece un único valor de la intensidad de salida para diferentes valores de la de entrada, en la regiones externas al correspondiente ciclo de histéresis. La consecuencia de ello es que una de las principales aplicaciones de la BHO, que es la limitación o fijación del nivel de salida en un cierto valor, no se cumple en todo el margen de trabajo.