14 resultados para Noyaux gris centraux

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En un período como el actual, donde el arte parece insistir en recuperar la presencia del hombre, la obra y la figura de Juan Gris, aparece como oportuna y necesaria, no tanto por la vigencia de sus trabajos hacia las nuevas propuestas, cuanto por la posibilidad de reflexión sobre los hallazgos específicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha desarrollado un sistema capaz de caracterizar las menas metálicas por sus propiedades de reflexión para lograr su reconocimiento automatizado sobre probetas pulidas. Establecida la proporcionalidad entre los valores de reflectancia característicos de las menas y los niveles de gris en imagen digital (Berrezueta y Castroviejo, 2007), se usan ahora medidas multiespectrales

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El principal objetivo de este proyecto consiste en diseñar una nueva instalación de trituración de caliza en una fábrica de cemento, de manera que esté en disposición de obtener las correspondientes autorizaciones administrativas para su puesta en marcha. Dicha fábrica cuenta con un horno para la producción de clínker gris con una capacidad de 3.400 tjd, además de las correspondientes instalaciones de molienda, almacenamiento, expedición y servicios auxiliares. La nueva instalación tiene como objetivo la trituración de caliza, con un caudal de 800 t/h y una granulometría final de O- 15 mm., para la alimentación al molino de crudo. Con la nueva instalación se buscan varios fines: Disminuir la granulometría del material triturado a un tamaño 0-15 mm., para que aumente la producción del molino de crudo. Aumentar la capacidad de trituración de 500 t/h a 800 tjh. para mejorar los costes operativos. Disminuir las emisiones de polvo por debajo de 50 mg/Nm3. Reducción del consumo energético en kW /t. en la producción de caliza, al utilizar maquinaria de nueva generación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Le Corbusier le hubiera gustado que le recordaran también como pintor. Igual que su compatriota E. L. Boullée, devoto como él de las formas más puras de la geometría, hubiera escrito gustoso, bajo el título de cualquiera de sus libros de Arquitectura, aquella frase: “Yo también soy pintor”. Para él, como para el ilustrado, la Arquitectura comparte una dimensión artística con la Pintura (y con la Escultura, la Música, la Poesía...etc.) que se pone de manifiesto en el proceso creativo y que está encaminada a emocionar al espectador que participa y se involucra en la obra. Arquitectura y Pintura se convierten de este modo en caminos diferentes para llegar a los mismos objetivos. Esta Tesis trata sobre el proceso de creación en la arquitectura de Le Corbusier y de cómo en él se producen continuas incursiones en el mundo de la pintura cubista. Asumiendo que es un tema sobre el que ya se ha escrito mucho ( las bibliografías de Le Corbusier y de Picasso son sin duda las más numerosas entre los artistas de sus respectivos campos) creemos que es posible ofrecer una nueva visión sobre los mecanismos que, tanto el arquitecto como el pintor, utilizaban en su trabajo. Lo que buscamos es desvelar un modo de creación, común entre ambas disciplinas, basado en el análisis de ciertos componentes artísticos capaces de ser ensamblados en composiciones sintéticas siempre nuevas, que inviten al espectador a participar del hecho creativo en una continua actividad cognoscitiva. El proyecto cubista, tanto para Le Corbusier como para Picasso, se alcanza al final de un largo camino como resultado de un profundo estudio de la realidad (en la Arquitectura, social, cultural y económica, y en la Pintura la realidad cotidiana), en el que el motivo, ya sea objeto, espacio ó luz, intenta ser “conocido” en su totalidad a través del filtro personal del artista. Es por lo tanto, algo a lo que se llega, y cuyo resultado, a priori, es desconocido. En cualquier caso, forma parte de una investigación, de un proceso continuo que intencionadamente supera la circunstancia concreta de cada ocasión. Es la coincidencia en los procesos de proyecto lo que unificará arquitecturas en principio tan dispares como la Capilla de Ronchamp, el Tribunal de Justicia de Chandigarh, o el Hospital de Venecia, y son esos procesos los que aquí, a través de varias obras concretas vamos a intentar desvelar. Es cierto que el proyecto presentado al concurso del Palacio de los Soviets de Moscú es un ejercicio brillante de Constructivismo, pero este resultado no se anunciaba al principio. Si analizamos el proceso de proyecto encontramos que inicialmente la propuesta no era muy diferente a la del Centorsoyuz, o incluso a la de la Cité de Refuge o a la del Pavillon Suisse de París. La solución final sólo se alcanzaría después de mover muchísimas veces, las piezas preseleccionadas en el solar. Cuando entendemos el Convento de la Tourette como una versión actualizada del monasterio dominico tradicional estamos haciendo una lectura parcial y engañosa de la idea de proyecto del arquitecto. En los croquis previos del archivo de la Fondation Le Corbusier encontramos otra vez las mismas ideas que en la vieja Cité de Refuge, ahora actualizadas y adaptadas al nuevo fin. Con la Asamblea de Chandigarh las similitudes son obvias e incluso aparece el mismo cubo al que se superpone una pirámide como techo, avanzando hacia el espacio central pero aquí aparece un gran hiperboloide en un interior cerrado. Este hiperboloide fue en el inicio del proyecto un cubo, y después un cilindro. Sólo al final encontró su forma óptima en un volumen de geometría reglada que en su idoneidad podría también valer para otros edificios, por ejemplo para una Iglesia. La comparación que se ha hecho de este volumen con las torres de refrigeración de Ahmedabad es puramente anecdótica pues, como veremos, esta forma se alcanza desde la lógica proyectual que sigue el pensamiento plástico de Le Corbusier, en este caso, en la adaptación del espacio cilíndrico a la luz, pero no como inspiración en las preexistencias. En todas sus obras los mecanismos que se despliegan son, en muchas ocasiones pictóricos (fragmentación analítica del objeto y del espacio, ensamblaje multidimensional, tramas subyacentes de soporte, escenografía intencionada ...etc.) y el programa en cada caso, como el motivo de los cubistas, no es más que una ocasión más para investigar una nueva forma de hacer y de entender, la Arquitectura. Cualquier proyecto del pintor-arquitecto cubista es en realidad un trabajo continuo desarrollado a lo largo de toda su vida, en el que se utilizan, una y otra vez, las mismas palabras de su vocabulario particular y personal. aunque con diferente protagonismo en cada ocasión. Se trata de alcanzar, desde ellas mismas, una perfección que las valide universalmente. Los mismos objetos, los mismos mecanismos, las mismas constantes manipulaciones del espacio y de la luz, se desplegarán, como ingredientes previos con los que trabajar, sobre el tablero de dibujo coincidiendo con el inicio de cada proyecto, para desde aquí hacer que el motivo que se trata de construir emerja, aunque a veces sea de manera incierta e inesperada, como resultado alcanzado al final. Con muchas dudas, a partir de la primera hipótesis planteada, se confirma, se añade o se elimina cada elemento según van apareciendo en el tiempo los condicionantes del solar, del programa o incluso a veces de obsesiones propias del arquitecto. El trabajo que presentamos utiliza un método inductivo que va desde los ejemplos hasta los conceptos. Empezaremos por investigar el proceso de proyecto en una obra concreta y con los mecanismos que en él se utilizan plantearemos una síntesis que los generalice y nos permitan extenderlos al entendimiento de la totalidad de su obra. Se trata en realidad de un método que en sí mismo es cubista: desde la fragmentación del objeto-proyecto procedemos a su análisis desde diversos puntos de vista, para alcanzar después su recomposición en una nueva estructura sintética. Cada mecanismo se analiza de forma independiente siguiendo un cierto orden que correspondería, supuestamente, al trabajo del arquitecto: manipulación del objeto, método compositivo, entendimiento del soporte (lienzo o espacio) y de su geometría implícita, relación con el observador, concepto y materialidad del espacio y de la luz ..etc. recurriendo a la teoría sólo en la medida en que necesitemos de ella para aclarar el exacto sentido con el que son utilizados. En nuestra incursión en el mundo de la pintura, hemos decidido acotar el Cubismo a lo que fue en realidad su periodo heroico y original, que discurrió entre 1907 y 1914, periodo en el que desarrollado casi exclusivamente por los que habían sido sus creadores, Picasso y Braque. Solo en alguna ocasión entraremos en la pintura del “tercer cubista”, Juan Gris para entender el tránsito de los mecanismos de los primeros hasta la pintura purista, pero no es nuestra intención desviar las cuestiones planteadas de un ámbito puramente arquitectónico Resulta difícil hablar del cubismo de Pablo Picasso sin hacerlo comparativamente con el de Georges Braque (para algunos especialistas es éste incluso el auténtico creador de la Vanguardia), siendo necesario enfrentar los mecanismos de ambos pintores para obtener un exacto entendimiento de lo que supuso la Vanguardia. Por eso nos parece interesante estudiar la obra de Le Corbusier en paralelo con la de otro arquitecto de tal manera que los conceptos aparezcan como polaridades entre las que situar los posibles estados intermedios. En este sentido hemos recurrido a James Stirling. Su deuda es clara con Le Corbusier, y sobre todo con el Cubismo, y como vamos a ver, los mecanismos que utiliza en su obra, siendo similares, difieren significativamente. La Tesis adquiere un sentido comparativo y aparecen así atractivas comparaciones Picasso-Le Corbusier, Braque-Stirling que se suman a las ya establecidas Picasso-Braque y Le Corbusier-Stirling. Desde ellas podemos entender mejor lo que supone trabajar con mecanismos cubistas en Arquitectura. Por último, en relación a los dibujos creados expresamente para esta Tesis, hemos de indicar que las manipulaciones que se han hecho de los originales les convierten en elementos analíticos añadidos que aclaran determinadas ideas expresadas en los croquis de sus autores. Algunos están basados en croquis del archivo de la Fondation Le Corbusier (se indican con el número del plano) y otros se han hecho nuevos para explicar gráficamente determinadas ideas. Se completa la parte gráfica con las fotografías de las obras pictóricas, los planos originales e imágenes de los edificios construidos, extraídos de los documentos de la bibliografía citada al final. Nos disponemos pues, a indagar en las obras del Cubismo, en una búsqueda de los mecanismos con los que hacía su arquitectura Le Corbusier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en el estudio y desarrollo de dispositivos de aplicación basados en cristal líquido polimérico. Las propiedades de los cristales líquidos los hacen interesantes para su uso en el desarrollo de dispositivos de seguridad para autenticación de productos y marcas, y detección y prevención de falsificaciones. Asimismo, pueden ser muy útiles para fabricar dispositivos basados en CLs dispersos en polímero, los cuales tienen a su vez múltiples aplicaciones. La orientación de las moléculas de cristal líquido y la birrefringencia son las dos características principales que afectan a las propiedades de estos dispositivos. Un dispositivo de cristal líquido estándar consiste en un sándwich formado por dos sustratos de vidrio transparente, dotados con electrodo de ITO (Indium Tin Oxide) en su superficie interna, que confinan el cristal líquido en su interior. En la primera parte de esta tesis se describen las características más importantes que describen una célula de cristal líquido. Esta introducción básica en necesaria para la correcta comprensión de los capítulos posteriores en los que se detalla el desarrollo concreto de los dispositivos desarrollados en la investigación llevada a cabo. Por ejemplo, en el caso de los dispositivos de seguridad se han eliminado los sustratos de vidrio (en la última fase de su desarrollo) para conseguir dispositivos flexibles. En la segunda parte de la tesis se incluye la descripción completa de los dispositivos fabricados, así como de los protocolos de fabricación seguidos y diseñados específicamente para ello. También se detallan en esta parte los resultados obtenidos, así como las propiedades ópticas y electroópticas en cada caso, y el/los equipos de caracterización utilizados. Utilizando cristal líquido nemático y colorante dicroico, se han desarrollado dispositivos que contienen múltiples imágenes latentes en cada cara del mismo. Utilizando distintas técnicas de alineamiento se consigue crear cualquier tipo de motivo latente, ya sean símbolos sencillos, figuras, logotipos o incluso imágenes con escala de gris. Cuanto más complejo es el dispositivo, mayor es la dificultad para reproducirlo en una eventual falsificación. Para visualizar e identificar los motivos es necesario emplear luz polarizada, por ejemplo, con la ayuda de un sencillo polarizador lineal. Dependiendo de si el polarizador está colocado delante del dispositivo o detrás del él, se mostrarán las imágenes generadas en una u otra cara. Este efecto es posible gracias al colorante dicroico añadido al CL, a la orientación inducida sobre las moléculas, y a la estructura de twist utilizada en los dispositivos. En realidad, para ver el efecto de los dispositivos no es necesario el uso de un polarizador, basta con el reflejo de una superficie dielétrica (percialmente polarizado), o la luz emitida por la pantalla de dispositivos de consumo comunes como un televisor LCD, un monitor de ordenador o un “smartphone”. Por otro lado, utilizando una mezcla entre un CL nemático polimérico y un CL nemático no polimérico es posible fabricar dispositivos LCPC (Liquid Crystal Polymer Composite) con propiedades electroópticas muy interesantes, que funcionan a tensiones de conmutación bajas. El CL polimérico conforma una estructura de red en el interior del sándwich que mantiene confinado al CL nemático en pequeños microdominios. Se han fabricado dispositivos LCPC con conmutación inversa utilizando tanto alineamiento homogéneo como homeotrópico. Debido a que tanto la estructura de CL polimérico como el CL nemático que rellena los microdominios están orientados en una misma dirección de alineamiento preinducida, la luz dispersada por el dispositivo se encuentra polarizada. La dirección de polarización coincide con la dirección de alineamiento. La innovación aportada por esta investigación: un nuevo dispositivo LCPC inverso de respuesta ultrarápida y polarizada basado en la mezcla de dos CL nemáticos y, un dispositivo de seguridad y autenticación, patentado internacionalmente, basado en CL nemáticos dopados con colorante dicroico. Abstract This thesis is centered on the availability to use polymerizable liquid crystals to develop non-display application LC devices. Liquid crystal properties make them useful for the development of security devices in applications of authentication and detection of fakes, and also to achieve polymer dispersed LC devices to be used for different applications that will be studied here. Induced orientation of liquid crystal molecules and birefringence are the two main properties used in these devices. A standard liquid crystal device is a sandwich consisting of two parallel glass substrates carrying a thin transparent ITO (Indium‐Tin‐Oxide) electrode on their inner surfaces with the liquid crystal in the middle. The first part of this thesis will describe the most important parameters describing a liquid crystal cell. This basis is necessary for the understanding of later chapters where models of the liquid crystal devices will be discussed and developed. In the case of security devices the standard structure of an LC device has been modified by eliminating the glass substrates in order to achieve plastic and flexible devices. The second part of the thesis includes a detailed description of the devices achieved and the manufacturing protocols that have been developed ad-hoc. The optical and electrooptical properties and the characterization equipment are described here as well. Employing nematic liquid crystal and dichroic colorants, we have developed devices that show, with the aid of a polarizer, multiple images on each side of the device. By different alignment techniques it is possible to create any kind of symbols, drawings or motifs with a grayscale; the more complex the created device is, the more difficult is to fake it. To identify the motifs it is necessary to use polarized light. Depending on whether the polarizer is located in front of the LC cell or behind it, different motifs from one or the other substrate are shown. The effect arises from the dopant color dye added to the liquid crystal, the induced orientation and the twist structure. In practice, a grazing reflection on a dielectric surface is polarized enough to see the effect. Any LC flat panel display (LCD TV, computer, mobile phone) can obviously be used as backlight as well. On the other hand, by using a mixture of polymerizable and non-polymerizable nematics liquid crystals it is also possible to achieve LCPC (Liquid Crystal Polymer Composite) devices that show really interesting electrooptical characteristics using low switching voltages. Polymerizable LC creates a hollow structure inside the sandwich glass cell that keep nematics liquid crystal confined creating microdomains. Homogeneous and homeotropic alignments have been used to develop inverse switching mode LCPCs. Due to the double LC oriented structure, the outgoing scattered light from these devices is already polarized. The polarization axis coincides with LC molecules director, the alignment direction promoted. The novelties derived from the investigation presented here, new ultrafast inverse LCPC with polarized outgoing scattered light based on oriented nematic LC mixture, and an internationally patented security and authentication device based on nematics (doped with dichroic dye) oriented polymerizable LC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito del presente Proyecto de Fin de Carrera consiste en la elaboración de un modelo metodológico y cartográfico sobre vulnerabilidad urbana aplicado al caso del entorno histórico-artístico del municipio madrileño de Nuevo Baztán, pero extensible y aplicable a cualquier otro municipio de características similares en cuanto a extensión e historia se refiere. El trabajo consta de dos partes bien diferenciadas: una primera topográfica, mientras que la segunda se centra en el propósito capital de este proyecto, esto es, el estudio de vulnerabilidad urbana. En efecto, la primera fase de este trabajo se centra en la realización de un levantamiento topográfico, cuyo grado de detalle a la hora de dar coordenadas a puntos tendrá como finalidad la obtención de un plano a escala 1/500. Dicho levantamiento se lleva a cabo por medio de una doble poligonal encuadrada, sirviendo como canevás para a continuación efectuar, a partir de ella, una radiación a partir de las mismas, donde se obtienen las coordenadas de la nube de puntos que integrarán este primer objetivo de carácter topográfico, pero sobre todo cartográfico. Obtenida esa base cartográfica a partir de su procesamiento y edición en AutoCAD, se procede a implementar la segunda y principal fase de este Proyecto, el estudio de vulnerabilidad urbana. Este estudio se focaliza en dos aspectos fundamentales: la conservación y grado de deterioro de los materiales que integran el elemento a estudiar, y el grado de adecuación o impacto en el paisaje urbano que tiene dicho elemento digno de estudio. A su vez, los elementos que se proceden a estudiar se clasifican en tres categorías: edificaciones, mobiliario urbano y pavimentación. Con arreglo a esto, se preestablecen las escalas de valoración, y justamente a continuación se implementa el proceso de evaluación en todo el entorno histórico-artístico del municipio. La culminación de este trabajo tiene como objetivo reflejar esa evaluación de vulnerabilidad en la cartografía preexistente. Para ello, se diseñan dos escalas de color, una cromática y otra de intensidad (niveles de gris), reflejando la conservación y la adecuación respectivamente. La combinación de ambas dará como resultado final un plano donde se reflejarán todos los aspectos de la evaluación de forma temática, con diferentes tonalidades e intensidades de colores, dando una idea de la vulnerabilidad urbana, como concepto general, en la totalidad del entorno histórico-artístico de Nuevo Baztán. Como trabajo añadido, se procede a elaborar también una cartografía donde quedan reflejadas las mejores visuales a los elementos arquitectónicos de mayor interés, en el contexto de un itinerario turístico considerado como el más idóneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Algunas levaduras son capaces de producir deterioro en alimentos desarrollándose en su superficie como colonias. La medida del crecimiento de éstas evaluando el aumento de células viables es una técnica laboriosa y tediosa, mientras que la medida del aumento de su radio proporciona un resultado inmediato. En este trabajo, como alternativa a la medición manual del radio de la colonia, se plantea el empleo de técnicas de análisis de imagen que permiten automatizar el proceso de medición. A partir de las imágenes escaladas digitales, adquiridas en escala de gris de las colonias en crecimiento se ha desarrollado un algoritmo de análisis de imagen con el software MATLAB®. Esta herramienta se ha utilizado para procesar diariamente las imágenes de colonias de cuatro especies de levaduras deteriorantes: Zygosaccharomyces rouxii, Debaryomyces hansenii, Saccharomyces cerevisiae y Rhodotorula glutinis. El error de predicción del tamaño de la colonia al aplicar el algoritmo es comparable con el cometido en la medición manual, no superando en ambos casos el 3-4% y obteniéndose un ajuste medio (R2) entre ambas mediciones de 0.99, ajuste consistente e independiente de la especie de levadura estudiada. La observación de que el crecimiento bifásico del radio está correlacionado con las fases de aumento de células viables hace de este algoritmo una excelente herramienta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto final de carrera titulado “Modelado de alto nivel con SystemC” tiene como objetivo principal el modelado de algunos módulos de un codificador de vídeo MPEG-2 utilizando el lenguaje de descripción de sistemas igitales SystemC con un nivel de abstracción TLM o Transaction Level Modeling. SystemC es un lenguaje de descripción de sistemas digitales basado en C++. En él hay un conjunto de rutinas y librerías que implementan tipos de datos, estructuras y procesos especiales para el modelado de sistemas digitales. Su descripción se puede consultar en [GLMS02] El nivel de abstracción TLM se caracteriza por separar la comunicación entre los módulos de su funcionalidad. Este nivel de abstracción hace un mayor énfasis en la funcionalidad de la comunicación entre los módulos (de donde a donde van datos) que la implementación exacta de la misma. En los documentos [RSPF] y [HG] se describen el TLM y un ejemplo de implementación. La arquitectura del modelo se basa en el codificador MVIP-2 descrito en [Gar04], de dicho modelo, los módulos implementados son: · IVIDEOH: módulo que realiza un filtrado del vídeo de entrada en la dimensión horizontal y guarda en memoria el video filtrado. · IVIDEOV: módulo que lee de la memoria el vídeo filtrado por IVIDEOH, realiza el filtrado en la dimensión horizontal y escribe el video filtrado en memoria. · DCT: módulo que lee el video filtrado por IVIDEOV, hace la transformada discreta del coseno y guarda el vídeo transformado en la memoria. · QUANT: módulo que lee el video transformado por DCT, lo cuantifica y guarda el resultado en la memoria. · IQUANT: módulo que lee el video cuantificado por QUANT, realiza la cuantificación inversa y guarda el resultado en memoria. · IDCT: módulo que lee el video procesado por IQUANT, realiza la transformada inversa del coseno y guarda el resultado en memoria. · IMEM: módulo que hace de interfaz entre los módulos anteriores y la memoria. Gestiona las peticiones simultáneas de acceso a la memoria y asegura el acceso exclusivo a la memoria en cada instante de tiempo. Todos estos módulos aparecen en gris en la siguiente figura en la que se muestra la arquitectura del modelo: Figura 1. Arquitectura del modelo (VER PDF DEL PFC) En figura también aparecen unos módulos en blanco, dichos módulos son de pruebas y se han añadido para realizar simulaciones y probar los módulos del modelo: · CAMARA: módulo que simula una cámara en blanco y negro, lee la luminancia de un fichero de vídeo y lo envía al modelo a través de una FIFO. · FIFO: hace de interfaz entre la cámara y el modelo, guarda los datos que envía la cámara hasta que IVIDEOH los lee. · CONTROL: módulo que se encarga de controlar los módulos que procesan el vídeo, estos le indican cuando terminan de procesar un frame de vídeo y este módulo se encarga de iniciar los módulos que sean necesarios para seguir con la codificación. Este módulo se encarga del correcto secuenciamiento de los módulos procesadores de vídeo. · RAM: módulo que simula una memoria RAM, incluye un retardo programable en el acceso. Para las pruebas también se han generado ficheros de vídeo con el resultado de cada módulo procesador de vídeo, ficheros con mensajes y un fichero de trazas en el que se muestra el secuenciamiento de los procesadores. Como resultado del trabajo en el presente PFC se puede concluir que SystemC permite el modelado de sistemas digitales con bastante sencillez (hace falta conocimientos previos de C++ y programación orientada objetos) y permite la realización de modelos con un nivel de abstracción mayor a RTL, el habitual en Verilog y VHDL, en el caso del presente PFC, el TLM. ABSTRACT This final career project titled “High level modeling with SystemC” have as main objective the modeling of some of the modules of an MPEG-2 video coder using the SystemC digital systems description language at the TLM or Transaction Level Modeling abstraction level. SystemC is a digital systems description language based in C++. It contains routines and libraries that define special data types, structures and process to model digital systems. There is a complete description of the SystemC language in the document [GLMS02]. The main characteristic of TLM abstraction level is that it separates the communication among modules of their functionality. This abstraction level puts a higher emphasis in the functionality of the communication (from where to where the data go) than the exact implementation of it. The TLM and an example are described in the documents [RSPF] and [HG]. The architecture of the model is based in the MVIP-2 video coder (described in the document [Gar04]) The modeled modules are: · IVIDEOH: module that filter the video input in the horizontal dimension. It saves the filtered video in the memory. · IVIDEOV: module that read the IVIDEOH filtered video, filter it in the vertical dimension and save the filtered video in the memory. · DCT: module that read the IVIDEOV filtered video, do the discrete cosine transform and save the transformed video in the memory. · QUANT: module that read the DCT transformed video, quantify it and save the quantified video in the memory. · IQUANT: module that read the QUANT processed video, do the inverse quantification and save the result in the memory. · IDCT: module that read the IQUANT processed video, do the inverse cosine transform and save the result in the memory. · IMEM: this module is the interface between the modules described previously and the memory. It manage the simultaneous accesses to the memory and ensure an unique access at each instant of time All this modules are included in grey in the following figure (SEE PDF OF PFC). This figure shows the architecture of the model: Figure 1. Architecture of the model This figure also includes other modules in white, these modules have been added to the model in order to simulate and prove the modules of the model: · CAMARA: simulates a black and white video camera, it reads the luminance of a video file and sends it to the model through a FIFO. · FIFO: is the interface between the camera and the model, it saves the video data sent by the camera until the IVIDEOH module reads it. · CONTROL: controls the modules that process the video. These modules indicate the CONTROL module when they have finished the processing of a video frame. The CONTROL module, then, init the necessary modules to continue with the video coding. This module is responsible of the right sequence of the video processing modules. · RAM: it simulates a RAM memory; it also simulates a programmable delay in the access to the memory. It has been generated video files, text files and a trace file to check the correct function of the model. The trace file shows the sequence of the video processing modules. As a result of the present final career project, it can be deduced that it is quite easy to model digital systems with SystemC (it is only needed previous knowledge of C++ and object oriented programming) and it also allow the modeling with a level of abstraction higher than the RTL used in Verilog and VHDL, in the case of the present final career project, the TLM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los años cincuenta y sesenta son los años de la incorporación definitiva de la arquitectura española al panorama internacional. Entre los arquitectos que protagonizan ese salto sin retorno, se encuentra el grupo de aquellos que unos años más tarde serán denominados por Juan Daniel Fullaondo como Escuela de Madrid. Carlos Flores, en su libro Arquitectura Española Contemporánea 1880-1950, se refiere a esos arquitectos como aquellos que se aplicaban a la difícil tarea de restablecer en España un tipo de arquitectura que conectaba con las teorías, soluciones y lenguajes establecidos por Europa durante las primeras décadas del siglo XX. Sigfried Giedion plantea en Espacio, Tiempo y Arquitectura el origen de una nueva tradición, surgida a partir de la revolución óptica de principios de siglo. Con tradición se refiere a una nueva cultura, que abarca la interrelación de las diferentes actividades del hombre: la similitud de los métodos que se usan en la arquitectura, la construcción, la pintura, el urbanismo o la ciencia. Esa novedad, fundamentada en su independencia y desvinculación con el periodo anterior, se inscribe dentro del esquema evolutivo que Thomas Kuhn plantea en su texto La Estructura de la Revoluciones Científicas, conforme a periodos no acumulativos. Kuhn habla del surgimiento de anomalías en cada periodo, origen de las crisis de pensamiento cuya explicación precisará un necesario cambio paradigmático. En la ciencia, en el campo de la óptica Thomas Young demuestra a principios del siglo XIX la naturaleza ondulatoria de la luz con su experimento de doble rendija; en el electromagnetismo se produce el salto conceptual que supone la postulación de la existencia del campo eléctrico por parte de Michael Faraday, y en termodinámica la consideración apuntada por Planck de que la radiación de la energía de produce de forma discreta, a través de cuantos. En las artes plásticas, paralelamente, Gleizes y Metzinger, en su recopilación de logros cubistas recogida en Sobre el Cubismo, hablan de la evolución sufrida durante el siglo XIX por la pintura: desde el idealismo de principios de siglo, para pasando por el realismo y la representación impresionista de la realidad, concluir prescindiendo de la perspectiva clásica. También la matemática, una vez desarrolladas por Gauss o Lobachevsky y Bolyai geometrías coherentes que incumplen el quinto postulado de Euclides, terminará dando validez a través de Riemann a los espacios ambiente en los que habitan dichas geometrías, desvinculando la relación directa entre espacio geométrico –el espacio ambiente al que da lugar un tipo de geometría- y el espacio físico. Capi Corrales refleja en su libro Contando el Espacio, cómo hasta la teoría de la relatividad y el cubismo, las geometrías no euclídeas no se hicieron notorias también fuera del campo de las matemáticas. El origen de la nueva tradición con la que Giedion se refiere a la nueva cultura de la modernidad coincide con los saltos paradigmáticos que suponen la teoría de la relatividad en las ciencias y el cubismo en las artes plásticas. Ambas se prolongan durante las primeras décadas hasta la teoría cuántica y la abstracción absoluta, barreras que los dos principales precursores de la relatividad y el cubismo, Einstein y Picasso, nunca llegan a franquear. En ese sentido Giedion habla también, además del origen, de su desarrollo, e incorpora las aportaciones periféricas en la arquitectura de Brasil, Japón o Finlandia, incluyendo por tanto la revisión orgánica propugnada por Zevi como parte de esa nueva tradición, quedando abierta a la incorporación tardía de nuevas aportaciones al desarrollo de esa cultura de la modernidad. Eliminado el concepto de la estética trascendental de Kant del tiempo como una referencia absoluta, y asumido el valor constante de la velocidad de la luz, para la teoría de la relatividad no existe una simultaneidad auténtica. Queda así fijada la velocidad de la luz como uno de los límites del universo, y la equivalencia entre masa y energía. En el cubismo la simultaneidad espacial viene motivada por la eliminación del punto de vista preferente, cuyo resultado es la multiplicidad descriptiva de la realidad, que se visualiza en la descomposición en planos, tanto del objeto como del espacio, y la consecuente continuidad entre fondo y figura que en arquitectura se refleja en la continuidad entre edificio y territorio. Sin la consideración de un punto de vista absoluto, no existe una forma auténtica. El cubismo, y su posterior desarrollo por las vanguardias plásticas, hacen uso de la geometría como mecanismo de recomposición de la figura y el espacio, adoptando mecanismos de penetración, superposición y transparencia. Gyorgy Kepes indica en El Lenguaje de la Visión que la descomposición cubista del objeto implica la sucesiva autonomía de los planos, hasta convertirse en elementos constituyentes. Algo que refleja las axonometrías arquitectónicas de Van Doesburg y que culmina con los espacios propuestos por Mies van der Rohe en sus primeros proyectos europeos. Estos mecanismos, encuentran eco en los primeros planteamientos de Javier Carvajal: en la ampliación del Panteón de españoles del cementerio de Campo Verano, un recinto virtual reconstruido mentalmente a partir del uso de tres únicos planos; o en el Pabellón de Nueva York, que organiza su planta baja desde el recorrido, introduciendo el parámetro temporal como una dimensión más. Al uso diferenciado del plano como elemento constituyente, Carvajal incorpora su plegado y su disposición conformando envolventes como mecanismo de cualificación espacial y formal, potenciando la prolongación entre arquitectura y territorio. Una continuidad que quedará culminada en las dos viviendas unifamiliares construidas en Somosaguas. La descomposición volumétrica conduce a unos niveles de abstracción que hace precisa la incorporación de elementos de la memoria -fuentes, patios, celosías…- a modo de red de señales, como las que Picasso y Braque introducen en sus cuadros para permitir su interpretación. Braque insiste en el interés por el espacio que rodea a los objetos. Una búsqueda de la tactilidad del espacio contraria a la perspectiva que aleja el objeto del observador, y que en los jardines de las viviendas de Somosaguas parece emanar de su propia materialidad. Un espacio táctil alejado del espacio geométrico y que Braque identifica con el espacio representativo en el que Poincaré, en La Ciencia y la Hipótesis, ubica nuestras sensaciones. Desdibujar los límites del objeto prolonga el espacio indefinidamente. Con el paso en el arte griego del mito al logos, se abre paso a la matemática como herramienta de comprensión de la naturaleza hasta el siglo XIX. Leon Lederman, en Simetría y la Belleza del Universo, apunta a que una de las mayores contribuciones de la teoría de Einstein es hacer cambiar el modo de pensar la naturaleza, orientándolo hacia la búsqueda de los principios de simetría que subyacen bajo las leyes físicas. Considerando que la simetría es la invariancia de un objeto o un sistema frente a una transformación y que las leyes físicas son las mismas en cualquier punto del espacio, el espacio de nuestro universo posee una simetría traslacional continua. En la ocupación del espacio de las primeras propuestas de Corrales y Molezún aparecen estructuras subyacentes que responden a enlosetados: paralelogramos sometidos a transformaciones continuas, que la naturaleza identifica tridimensionalmente con los grupos cristalográficos. Las plantas del museo de Arte Contemporáneo de la Castellana, la residencia de Miraflores, el pabellón de Bruselas o la torre Peugeot pertenecen a este grupo. La arquitectura como proceso de ocupación continua del territorio y de su trasposición al plano de cubierta, se materializa en líneas estructurales coincidentes con la estructura matemática de sus simetrías de traslación cuya posibilidad de prolongación infinita queda potenciada por el uso de la envolvente transparente. Junto a esta transparencia literal, inherente al material, Colin Rowe y Robert Slutzky nos alertan sobre otra transparencia inherente a la estructura: la transparencia fenomenal, ilustrada por los cuadros de Juan Gris, y cuya intuición aparece reflejada en la casa Huarte en Puerta de Hierro de Madrid. Corrales y Molezún insisten en una lectura de su volumetría alejada de la frontalidad, en la que los contornos de sus cubiertas inclinadas y las visuales tangenciales sugeridas por la organización de sus recorridos introducen una estructura diagonal que se superpone al entendimiento ortogonal de su planta, dibujando una intrincada red de líneas quebradas que permiten al espacio fluctuar entre las secuencia volumétrica propuesta. Los datos relativos al contenido energético de la luz y el concepto de átomo parten de la consideración de la emisión de energía en cuantos realizada por Planck, y concluyen con una circunstancia paradójica: la doble naturaleza de la luz -demostrada por la explicación de Einstein del efecto fotoeléctrico- y la doble naturaleza de la materia -asumida por Bohr y demostrada por el efecto Compton-. Schrödinger y Heisenberg formularán finalmente la ecuación universal del movimiento que rige en las ondas de materia, y cuya representación matemática es lo que se conoce como función de onda. El objeto es así identificado con su función de onda. Su ondulatoriedad expresará la probabilidad de encontrarse en un lugar determinado. Gyorgy Kepes subraya la necesidad de simplificar el lenguaje para pasar de la objetividad que aún permanece en la pintura cubista a la abstracción total del espacio. Y es así como los artistas plásticos reducen los objetos a simples formas geométricas, haciendo aflorar a la vez, las fuerzas plásticas que los tensionan o equilibran, en un proceso que acaba por eliminar cualquier atisbo de materia. Robert Rosenblum en La Pintura Moderna y la Tradición del Romanticismo Nórdico habla de cómo ese rechazo de la materia en favor de un vacío casi impalpable, campos luminosos de color denso que difunden un sereno resplandor y parecen engendrar las energías elementales de la luz natural, está directamente vinculado a la relación con la naturaleza que establece el romanticismo nórdico. La expresión de la energía de la naturaleza concentrada en un vacío que ya había sido motivo de reflexión para Michael Faraday en su postulación del concepto de campo eléctrico. Sáenz de Oíza incide en la expresión de la condición material de la energía en su propuesta junto a José Luis Romany para la capilla en el Camino de Santiago. La evocación de diferentes fuerzas electromagnéticas, las únicas junto a las gravitatorias susceptibles de ser experimentadas por el hombre, aparecerán visualizadas también en el carácter emergente de algunas de sus obras: el Santuario de Aránzazu o Torres Blancas; pero también en la naturaleza fluyente de sus contornos, la dispersión perimetral de los espacios -el umbral como centro del universoo la configuración del límite como respuesta a las tensiones germinales de la naturaleza. Miguel Fisac, a la vuelta de su viaje a los países nórdicos, aborda una simplificación lingüística orientada hacia la adecuación funcional de los espacios. En el Instituto de Daimiel, el Instituto de formación del profesorado o los complejos para los Padres Dominicos en Valladolid o Alcobendas, organiza progresivamente la arquitectura en diferentes volúmenes funcionales, incidiendo de un modo paralelo en la manifestación de los vínculos que se establecen entre dichos volúmenes como una visualización de las fuerzas que los tensionan y equilibran. En ellos la prolongación de la realidad física más allá de los límites de la envolvente ya es algo más que una simple intuición. Un proceso en el que el tratamiento de la luz como un material de construcción más, tendrá un especial protagonismo. En la iglesia de la Coronación, la iluminación del muro curvo escenifica la condición ondulatoria de la luz, manifestándose como si de un patrón de interferencia se tratara. Frente a la disolución de lo material, el espacio se manifiesta aquí como un medio denso, alejado de la tradicional noción de vacío. Una doble naturaleza, onda y partícula, que será intuido también por Fisac en la materia a través de su uso comprometido del hormigón como único material de construcción. Richard Feynmann nos alerta de la ocupación del espacio por multitud de fuerzas electromagnéticas que, al igual que la luz, precisan de receptores específicos para captar su presencia. Sus célebres diagramas suponen además la visualización definitiva de los procesos subatómicos. Al igual que la abstracción absoluta en las artes plásticas, esas representaciones diagramáticas no son asimilables a imágenes obtenidas de nuestra experiencia. Una intuición plasmada en el uso del diagrama, que irán adquiriendo progresivamente los dibujos de Alejandro de la Sota. La sección del gimnasio Maravillas recoge los trazos de sus principales elementos constructivos: estructura, cerramientos, compartimentaciones…, pero también, y con la misma intensidad, los de las fuerzas que generan su espacio, considerando así su condición de elementos constituyentes. El vacío, nos deja claro Sota, es el lugar donde habitan dichas tensiones. La posterior simplificación de las formas acompañadas de la obsesión por su aligeramiento, la casi desaparición de la envolvente, incide en aquella idea con la que Paul Klee define la actividad del artista en su Teoría del Arte Moderno, y en la que se transmite el distanciamiento hacia lo aparente: No se trata de reproducir lo visible, se trata de volver visible. Así, en Bankunión y Aviaco, como en tantos otros proyectos, frente al objetivo de la forma, Sota plantea el límite como la acotación de un ámbito de actuación. Su propia representación aséptica y diagramática transmite la renuncia a una especificidad espacial. Gilles Deleuze expresa ese posicionamiento en Pintura, el Concepto de Diagrama: el diagrama como la posibilidad de cuadros infinitos, o la posibilidad infinita de cuadros. Aparece así una concepción probabilística del espacio en la que frente a la renuncia por la forma, la tendencia al aligeramiento, y lo difuso de su definición – ideas claras, definición borrosa, en palabras de Llinás referidas al modo de operar de Sota-, la insistente atención a algunos elementos como escaleras, protecciones o miradores parece trasmitir la idea de que la arquitectura queda condensada en aquellos acontecimientos que delatan su condición dinámica, transitoria. Primando la relación frente al objeto, el vínculo frente a lo tangible. English summary. The fifties and sixties were the years of the final incorporation of Spanish architecture to the international scene. Among the architects who star that no return leap, is the group of those who a few years later will be named by Juan Daniel Fullaondo as Escuela de Madrid. Carlos Flores, in his book Arquitectura Española Contemporánea 1880-1950, refers to those architects as those that applied to the difficult task of restoring in Spain an architecture that connected with theories, solutions and established languages in Europe during the first decades of the twentieth century. Sigfried Giedion proposes in Space, Time and Architecture, the origin of a new tradition, arising from the optical revolution at the beginning of the century. With tradition he refers to a new culture, covering the interplay of different human activities: the similarity of the methods used in architecture, building, painting, urban planning or science. This new feature, based on its independence and detachment from the previous period, is part of the evolutionary scheme that Thomas Kuhn proposes in his text The Structure of Scientific Revolutions, according to non-accumulative periods. Kuhn talks about the emergence of anomalies in each period, origin of thought crisis whose explanation will require a paradigm shift needed. In science, in the field of optical Thomas Young demonstrates at the early nineteenth century the wave nature of light with its double-slit experiment , in electromagnetism the postulation of the existence of the electric field by Michael Faraday involves a conceptual leap, and in thermodynamic, the consideration pointed by Planck about quantum energy radiation. In the arts, in a parallel process, Gleizes and Metzinger , in his collection of cubism achievements on their book Du Cubisme, speak of evolution occurring during the nineteenth century by the painting: from the idealism of beginning of the century, going for realism and impressionist representation of reality, and finishing regardless of the classical perspective . Mathematics also, once developed by Gauss and Lobachevsky and Bolyai consistent geometries that violate Euclid's fifth postulate , will end validating Riemann’s ambient spaces in which these geometries inhabit, decoupling the direct relationship between geometric space -the space environment that results in a type of geometry- , and physical space. Capi Corrales reflectes in his book Contando el Espacio, that non-Euclidean geometries were not noticeable outside the field of mathematics until the theory of relativity and cubism. The origin of the new tradition that Giedion relates to the new culture of modernity coincides with paradigmatic leaps pointed by the theory of relativity in science and Cubism in the visual arts. Both are extended during the first decades until quantum theory and absolute abstraction, barriers that the two main precursors of relativity and cubism, Einstein and Picasso never overcome. In that sense Giedion speaks about the origin, but also the development, and incorporates peripheral inputs from Brazil, Japan and Finland architecture, thus including organic revision advocated by Zevi as part of this new tradition, being open to the late addition of new contributions to the development of that culture of modernity. Removed the concept of Kant's transcendental aesthetics, of time as an absolute reference, and assumed the constant value of the speed of light, theory of relativity says there is no authentic concurrency. It is thus fixed the speed of light as one of the limits of the universe, and the equivalence of mass and energy. In cubism, spatial simultaneity results from the elimination of preferential points of view, resulting in the multiplicity descriptive of reality, which is displayed in decomposition levels, both the object and the space, and the resulting continuity between figure and background that architecture is reflected in the continuity between building and land. Without the consideration of an absolute point of view, there isn’t an authentic shape. Cubism, and its subsequent development by the vanguard arts, make use of geometry as a means of rebuilding the figure and space, taking penetration mechanisms, overlapping and transparency. Gyorgy Kepes suggest in Languaje of Vision, that cubist decomposition of the object involves successive planes autonomy, to become constituent elements. Something that reflects the Van Doesburg’s architectural axonometrics and culminates with the spaces proposed by Mies van der Rohe in his first European projects. These mechanisms are reflected in the first approaches by Javier Carvajal: the extension of Spanish Pantheon in Campo Verano Cemetery, virtual enclosure mentally reconstructed from 24 the use of only three planes, or in the Spanish Pavilion of New York, which organizes its ground floor from the tour, introducing the time parameter as an additional dimension. Carvajal adds to the differential use of the plane as a constituent, Carvajal incorporates its folding and forming enclosures available as a mechanism for spatial and formal qualification, promoting the extension between architecture and territory. A continuity that will be completed in the two houses built in Somosaguas. Volumetric decomposition, as the fragmentation achieved in the last cubist experiences, needs the incorporation of elements of memory - fountains, patios, shutters...- as a network of signals, such as those introduced by Picasso and Braque in their paintings to allow their interpretation. Braque insists in his interest in the space surrounding the objects. A search of the tactility of space contrary to the perspective, which moves the observer away from the object, and that in the gardens of Somosaguas seems to emanate from its own materiality. A tactile space away from the geometric space and Braque identified with the representative space in which Poincaré in La Science et l´hypothèse, located our feelings. To blur those boundaries of the object extends the space indefinitely. With the passage in Greek art from myth to logos, it opens up to mathematics as a tool for understanding the nature until the nineteenth century. Leon Lederman, in Symmetry and beautiful Universe, suggests that one of the greatest contributions of Einstein's theory is to change the mindset of nature, namely the search for symmetry principles that underlie physical laws. Considering that symmetry is the invariance of an object or system from a transformation and that physical laws are the same at any point in space, the space of our universe has a continuous translational symmetry. In the space occupation of the first proposals by Corrales and Molezún underlying structures appear that match enlosetados: parallelograms under continuous transformations, which nature identifies tridimensionally with the crystallographic groups. Plants in the Contemporary Art Museum in La Castellana, the residence in Miraflores, the Brussels pavilion or the Peugeot tower belong to this group. The architecture as a process of continuous occupation of the territory and of its transposition to the deck, embodied in structural lines coincide with the mathematical structure of the translational symmetry and infinite extension whose possibility is enhanced by the use of the transparent cover. Alongside this literal transparency inherent to the material, Colin Rowe and Robert Slutzky alert us another transparency inherent in the structure: phenomenal transparency, illustrated by the Juan Gris’ works, and whose intuition is reflected in the Huarte’s house in Puerta de Hierro in Madrid. Corrales and Molezún insist on a reading of its volume away from the frontal, in which the outline of their inclined roofs and tangential visual suggested by the organization of his circulations introduce a diagonal structure which overlaps the orthogonal understanding of its plant, drawing an intricate web of broken lines that allow the space fluctuate between the volumetric sequence proposal. Information concerning to the energy mean of light and the concept of atom start from the consideration by Plank about the energy emission, and conclude with a paradoxical situation: the dual nature of light - demonstrated by the explanation of Einstein's photoelectric effect-, and the dual nature of matter -assumed by Bohr and demonstrated by the Compton effect-. Finally, Schrödinger and Heisenberg will formulate the universal movement equation governing in undulatory matter, whose mathematical representation is what is known as a wave function. The object is thus identified with its wave function. Its undulatory expression speaks about the probability of being found in a certain place. Gyorgy Kepes emphasizess the need to simplify the language to move from the objectivity that still remains in the cubist painting to the total abstraction of the space. And this is how artists reduced the objects to simple geometric shapes, making emerge at a time, the plastic forces that tense or balance them, in a process that eventually eliminate any trace of matter. Robert Rosenblum in Modern Painting and the Northern Romantic Tradition. Friedrich to Rothko talks about how this rejection of matter in an almost impalpable vacuum: dense color light fields that broadcast a serene glow and seem to generate the elemental energies of natural light is directly linked to the relationship with nature that sets the northern romanticism. An expression of the power of nature concentrated in a vacuum which had been reason for thought by Michael Faraday in his application of the concept of electric field. Saenz de Oíza touches upon the material expression of the energy in its proposal with Jose Luis Romany to the chapel on the Camino de Santiago. The presence of electromagnetic forces, the only ones with the gravitational one capable of being experienced by the man will also visualize in the emerging nature of some of his works: the sanctuary of Aránzazu or Torres Blancas, but also in the flowing nature of its contours, and the inclusion of interest in the realization of space fluctuating boundary: the threshold as the center of the universe. Miguel Fisac, back from his trip to the Northern Countries, starts on a linguistic simplification oriented to the functional adequacy of spaces. In the Daimiel Institute, in the Institute to Teacher Formation or in the complex to the Dominican Fathers in Valladolid or Alcobendas, progressively organized into different functional volumes architecture, focusing in a parallel way in the manifestation of the links established between these volumes as a visualization of the forces that tense and balance them. The prolongation of the physical reality beyond the limits of the envelope is already something more than a simple intuition. A process in which the treatment of light as a construction material, have a special role. In the Coronation church, curved wall lighting dramatizes the undulatory condition of the light, manifesting as if an interference pattern is involved. Versus the dissolution of the material, the space is expressed here as a dense atmosphere, away from the traditional notion of the vacuum. A dual nature, wave and particle, which is also sensed by Fisac in his committed use of concrete as a unique construction material. Richard Feynman alerts us to the occupation of space by many electromagnetic forces, which like the light, require specific receptors to capture their presence. His famous diagrams also involve the final visualization of atomic processes. As absolute abstraction in the visual arts, these representations are not assimilated to images obtained from our experience. A diagrammatic nature, abstracted from figuration, which will obtein the pictures of Alejandro de la Sota. The section of Maravillas gym collects traces of its main building blocks: structure, enclosures... but also, and with the same intensity, of the forces that generate their space as constituent elements. Sota makes it clear: the vacuum is where inhabit these tensions. The subsequent simplification of forms, accompanied by the obsession with his lightening, the near disappearance of the envelope, touches upon that idea which Paul Klee defines the activity of the artist in his Modern Art Theory, the spacing out to the apparent: it is not to reproduce the visible, it is to turn visible. Thus, in Bankunión and Aviaco, as in many other projects, against the shape, raises the limit as the dimension of a scope. His own aseptic and diagrammatic representation transmits waiver to a spatial specificity that Gilles Deleuze clearly expressed in Painting. The Concept Diagram: The diagram as the possibility of infinite pictures, or infinite possibility of the picture. Thus appears the probabilistic concept of space in which, opposite to the diffuse of its definition -clear ideas, diffuse definition, as Llinas said- the insistent attention to some elements like stairs, guards or lookouts seems to concentrate the architecture in its dynamic condition, transitional. The relationship opposite the object, the link opposite the tangible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo fin de master se centra en estudiar el efecto del radio de entalla en la fundición gris GG-25, sometida a cargas en modo I (propagación de fisuras a partir de la entalla por fuerzas de tracción exclusivamente). En teoría, en un material frágil, a menor radio de entalla, la carga critica de rotura debería ser también menor. Sin embargo, en la tesis fin de master “Static tests under torsion loading of notched specimens made of grey cast iron: Experimental issues and Numerical Development” realizada por el estudiante Marco Marcón, de la Universidad de Padua, Italia, con este mismo material pero con solicitación en modo III, se observo que a menor radio de entalla, la carga de rotura de las probetas aumentaba. Para estudiar dicho efecto de entalla, se ha llevado a cabo una campana experimental Ensayándose 20 probetas agrupadas en cuatro radios de entalla. Posteriormente se realizaron simulaciones numéricas para comprobar el comportamiento del material y corroborar los resultados experimentales obtenidos, mediante el modelo de la fisura cohesiva implementada junto con un material de Hencky en el continuo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se describen las características de las principales maderas tropicales con uso en España. La descripción incluye el nombre científico, sinonimias, nombres vulgares, su distribución en el mundo y en España, la descripción del fuste y de las trozas, con sus defectos más característicos, la descripción de la madera, sus características físicas, mecánicas, resistentes y durables. También se incluye sus aspectos tecnológicos, en el sentido de indicar que aspectos deben considerarse a la hora de trabajar estas maderas. Por último se indican los usos más comunes de las distintas maderas, las ventajas e inconvenientes frente a otras maderas Las especies principales que se describen son las siguientes: Algarrobo blanco, Prosopis alba, Grisebach Andiroba, Carapa guianensis, Aubl. Balsamo, Myroxylon balsamun, Harms. Sandwith. Barba jolote, Pithecolobium arboreum (L), Urban. Bubinga, Guibourtia tessmanii Caoba, Swietenia macrophylla, King. Cedro, Cedrela odorata, L. Cenizaro, Pithecellobium saman, (Jacq.) Benth Chinchon, Guarea grandiflora, A. DC. Cocobolo, Dalbergia retusa, Hemsl Cristobal, Platysmicium polystachyum Elondo o tali, Erythrophleum ivorensis Espavé, Anacardium excelsum, Skeels Gonzalo Alves, Astronium graveolens, Jacquin. Guayabillo, Terminalia lucida, Hoff. Guapaque, Dialium guianense, (Aubl.) Sandwith. Guayacán, Guaiacum sanctum, L. Huesito Homalium racemosum, Jacq. Ipe, Tabebuia guayacan, Hemsl. Iroko, Milicia excelsa Sim Jatoba, Hymenaea courbaril L. Machiche, Lonchocarpus castilloi, Standley. Manil, Symphonia globulifera, L. Marupa, Simarouba glauca, DC. Melina, Gmelina arborea, Roxb. Mongoy, Guibourtia ehie J. Léonard Nance, Byrsonima crassifolia (L.), H.B.K. Nazareno, Peltogyne purpurea Nispero, Manilkara zapota, (L.) Van royen. Palo blanco, Cybitax donnell- smith , Seibert. Pino amarillo, Erblichia odorata Piojo, Tapirira guianensis, Aubl. Quaruba, Vochysia guatemalensis, Donnell Smith Quira, Platysmicium pinnatum. Redondo, Magnolia yoroconte, Dandy. Rosul, Dalbergia tucurensis, Donn-Smith. Sande, Brossimiun ssp San juan areno, Ilex ssp. Saqui-saqui, Bombacopsis quinatum, (Jacq.) Dugand Santa maría, Calophyllum brasílíense Camb. Sapelly, Entandrophragma cylindricum Sprague Tamboril, Enterolobium cyclocarpum, Gris Teca, Tectona grandis, L.F.. Ukola, Tieghemella africana Ururucana, Hieronyma alchorneoides, Allem

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una gestión más eficiente y equitativa del agua a escala de cuenca no se puede centrar exclusivamente en el recurso hídrico en sí, sino también en otras políticas y disciplinas científicas. Existe un consenso creciente de que, además de la consideración de las cambiantes condiciones climáticas, es necesaria una integración de ámbitos de investigación tales como la agronomía, planificación del territorio y ciencias políticas y económicas a fin de satisfacer de manera sostenible las demandas de agua por parte de la sociedad y del medio natural. La Política Agrícola Común (PAC) es el principal motor de cambio en las tendencias de paisajes rurales y sistemas agrícolas, pero el deterioro del medio ambiente es ahora una de las principales preocupaciones. Uno de los cambios más relevantes se ha producido con la expansión e intensificación del olivar en España, principalmente con nuevas zonas de regadío o la conversión de olivares de secano a sistemas en regadío. Por otra parte, el cambio de las condiciones climáticas podría ejercer un papel importante en las tendencias negativas de las aportaciones a los ríos, pero no queda claro el papel que podrían estar jugando los cambios de uso de suelo y cobertura vegetal sobre las tendencias negativas de caudal observadas. Esta tesis tiene como objetivo mejorar el conocimiento de los efectos de la producción agrícola, política agraria y cambios de uso de suelo y cobertura vegetal sobre las condiciones de calidad del agua, respuesta hidrológica y apropiación del agua por parte de la sociedad. En primer lugar, el estudio determina las tendencias existentes de nitratos y sólidos en suspensión en las aguas superficiales de la cuenca del río Guadalquivir durante el periodo de 1998 a 2009. Desde una perspectiva de política agraria, la investigación trata de evaluar mediante un análisis de datos de panel las principales variables, incluyendo la reforma de la PAC de 2003, que están teniendo una influencia en ambos indicadores de calidad. En segundo lugar, la apropiación del agua y el nivel de contaminación por nitratos debido a la producción del aceite de oliva en España se determinan con una evaluación de la huella hídrica (HH), teniendo en cuenta una variabilidad espacial y temporal a largo de las provincias españolas y entre 1997 y 2008. Por último, la tesis analiza los efectos de los cambios de uso de suelo y cobertura vegetal sobre las tendencias negativas observadas en la zona alta del Turia, cabecera de la cuenca del río Júcar, durante el periodo 1973-2008 mediante una modelización ecohidrológica. En la cuenca del Guadalquivir cerca del 20% de las estaciones de monitoreo muestran tendencias significativas, lineales o cuadráticas, para cada indicador de calidad de agua. La mayoría de las tendencias significativas en nitratos están aumentando, y la mayoría de tendencias cuadráticas muestran un patrón en forma de U. Los modelos de regresión de datos de panel muestran que las variables más importantes que empeoran ambos indicadores de calidad del agua son la intensificación de biomasa y las exportaciones de ambos indicadores de calidad procedentes de aguas arriba. En regiones en las que el abandono agrícola y/o desintensificación han tenido lugar han mejorado las condiciones de calidad del agua. Para los nitratos, el desacoplamiento de las subvenciones a la agricultura y la reducción de la cuantía de las subvenciones a tierras de regadío subyacen en la reducción observada de la concentración de nitratos. Las medidas de modernización de regadíos y el establecimiento de zonas vulnerables a nitratos reducen la concentración en subcuencas que muestran una tendencia creciente de nitratos. Sin embargo, el efecto de las exportaciones de nitratos procedente de aguas arriba, la intensificación de la biomasa y los precios de los cultivos presentan un mayor peso, explicando la tendencia creciente observada de nitratos. Para los sólidos en suspensión, no queda de forma evidente si el proceso de desacoplamiento ha influido negativa o positivamente. Sin embargo, los mayores valores de las ayudas agrarias aún ligadas a la producción, en particular en zonas de regadío, conllevan un aumento de las tasas de erosión. Aunque la cuenca del Guadalquivir ha aumentado la producción agrícola y la eficiencia del uso del agua, el problema de las altas tasas de erosión aún no ha sido mitigado adecuadamente. El estudio de la huella hídrica (HH) revela que en 1 L de aceite de oliva español más del 99,5% de la HH está relacionado con la producción de la aceituna, mientras que menos del 0,5% se debe a otros componentes, es decir, a la botella, tapón y etiqueta. Durante el período estudiado, la HH verde en secano y en regadío representa alrededor del 72% y 12%, respectivamente, del total de la HH. Las HHs azul y gris representan 6% y 10%, respectivamente. La producción de aceitunas se concentra en regiones con una HH menor por unidad de producto. La producción de aceite de oliva ha aumentado su productividad del agua durante 1997-2008, incentivado por los crecientes precios del aceite, como también lo ha hecho la cantidad de exportaciones de agua virtual. De hecho, las mayores zonas productoras presentan una eficiencia alta del uso y de productividad del agua, así como un menor potencial de contaminación por nitratos. Pero en estas zonas se ve a la vez reflejado un aumento de presión sobre los recursos hídricos locales. El aumento de extracciones de agua subterránea relacionadas con las exportaciones de aceite de oliva podría añadir una mayor presión a la ya estresada cuenca del Guadalquivir, mostrando la necesidad de equilibrar las fuerzas del mercado con los recursos locales disponibles. Los cambios de uso de suelo y cobertura vegetal juegan un papel importante en el balance del agua de la cuenca alta del Turia, pero no son el principal motor que sustenta la reducción observada de caudal. El aumento de la temperatura es el principal factor que explica las mayores tasas de evapotranspiración y la reducción de caudales. Sin embargo, los cambios de uso de suelo y el cambio climático han tenido un efecto compensatorio en la respuesta hidrológica. Por un lado, el caudal se ha visto afectado negativamente por el aumento de la temperatura, mientras que los cambios de uso de suelo y cobertura vegetal han compensado positivamente con una reducción de las tasas de evapotranspiración, gracias a los procesos de disminución de la densidad de matorral y de degradación forestal. El estudio proporciona una visión que fortalece la interdisciplinariedad entre la planificación hidrológica y territorial, destacando la necesidad de incluir las implicaciones de los cambios de uso de suelo y cobertura vegetal en futuros planes hidrológicos. Estos hallazgos son valiosos para la gestión de la cuenca del río Turia, y el enfoque empleado es útil para la determinación del peso de los cambios de uso de suelo y cobertura vegetal en la respuesta hidrológica en otras regiones. ABSTRACT Achieving a more efficient and equitable water management at catchment scale does not only rely on the water resource itself, but also on other policies and scientific knowledge. There is a growing consensus that, in addition to consideration of changing climate conditions, integration with research areas such as agronomy, land use planning and economics and political science is required to meet sustainably the societal and environmental water demands. The Common Agricultural Policy (CAP) is a main driver for trends in rural landscapes and agricultural systems, but environmental deterioration is now a principal concern. One of the most relevant changes has occurred with the expansion and intensification of olive orchards in Spain, taking place mainly with new irrigated areas or with the conversion from rainfed to irrigated systems. Moreover, changing climate conditions might exert a major role on water yield trends, but it remains unclear the role that ongoing land use and land cover changes (LULCC) might have on observed river flow trends. This thesis aims to improve the understanding of the effects of agricultural production, policies and LULCC on water quality conditions, hydrological response and human water appropriation. Firstly, the study determines the existing trends for nitrates and suspended solids in the Guadalquivir river basin’s surface waters (south Spain) during the period from 1998 to 2009. From a policy perspective, the research tries to assess with panel data analysis the main drivers, including the 2003 CAP reform, which are having an influence on both water quality indicators. Secondly, water appropriation and nitrate pollution level originating from the production of olive oil in Spain is determined with a water footprint (WF) assessment, considering a spatial temporal variability across the Spanish provinces and from 1997 to 2008 years. Finally, the thesis analyzes the effects of the LULCC on the observed negative trends over the period 1973-2008 in the Upper Turia basin, headwaters of the Júcar river demarcation (east Spain), with ecohydrological modeling. In the Guadalquivir river basin about 20% of monitoring stations show significant trends, linear or quadratic, for each water quality indicator. Most significant trends of nitrates are augmenting than decreasing, and most significant quadratic terms of both indicators exhibit U-shaped patterns. The panel data models show that the most important drivers that are worsening nitrates and suspended solids in the basin are biomass intensification and exports of both water quality indicators from upland regions. In regions that agricultural abandonment and/or de-intensification have taken place the water quality conditions have improved. For nitrates, the decoupling of agricultural subsidies and the reduction of the amount of subsidies to irrigated land underlie the observed reduction of nitrates concentration. Measures of irrigation modernization and establishment of vulnerable zones to nitrates ameliorate the concentration of nitrates in subbasins showing an increasing trend. However, the effect of nitrates load from upland areas, intensification of biomass and crop prices present a greater weight leading to the final increasing trend in this subbasins group, where annual crops dominate. For suspended solids, there is no clear evidence that decoupling process have influenced negatively or positively. Nevertheless, greater values of subsidies still linked to production, particularly in irrigated regions, lead to increasing erosion rates. Although agricultural production has augmented in the basin and water efficiency in the agricultural sector has improved, the issue of high erosion rates has not yet been properly faced. The water footprint (WF) assessment reveals that for 1 L Spanish olive oil more than 99.5% of the WF is related to the olive fruit production, whereas less than 0.5% is due to other components i.e. bottle, cap and label. Over the studied period, the green WF in rainfed and irrigated systems represents about 72% and 12%, respectively, of the total WF. Blue and grey WFs represent 6% and 10%, respectively. The olive production is concentrated in regions with the smallest WF per unit of product. The olive oil production has increased its apparent water productivity from 1997 to 2008 incentivized by growing trade prices, but also did the amount of virtual water exports. In fact, the largest producing areas present high water use efficiency per product and apparent water productivity as well as less nitrates pollution potential, but this enhances the pressure on the available water resources. Increasing groundwater abstractions related to olive oil exports may add further pressure to the already stressed Guadalquivir basin. This shows the need to balance the market forces with the available local resources. Concerning the effects of LULCC on the Upper Turia basin’s streamflow, LULCC play a significant role on the water balance, but it is not the main driver underpinning the observed reduction on Turia's streamflow. Increasing mean temperature is the main factor supporting larger evapotranspiration rates and streamflow reduction. In fact, LULCC and climate change have had an offsetting effect on the streamflow generation during the study period. While streamflow has been negatively affected by increasing temperature, ongoing LULCC have positively compensated with reduced evapotranspiration rates, thanks to mainly shrubland clearing and forest degradation processes. The research provides insight for strengthening the interdisciplinarity between hydrological and spatial planning, highlighting the need to include the implications of LULCC in future hydrological plans. These findings are valuable for the management of the Turia river basin, as well as a useful approach for the determination of the weight of LULCC on the hydrological response in other regions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A nivel mundial, el cáncer de mama es el tipo de cáncer más frecuente además de una de las principales causas de muerte entre la población femenina. Actualmente, el método más eficaz para detectar lesiones mamarias en una etapa temprana es la mamografía. Ésta contribuye decisivamente al diagnóstico precoz de esta enfermedad que, si se detecta a tiempo, tiene una probabilidad de curación muy alta. Uno de los principales y más frecuentes hallazgos en una mamografía, son las microcalcificaciones, las cuales son consideradas como un indicador importante de cáncer de mama. En el momento de analizar las mamografías, factores como la capacidad de visualización, la fatiga o la experiencia profesional del especialista radiólogo hacen que el riesgo de omitir ciertas lesiones presentes se vea incrementado. Para disminuir dicho riesgo es importante contar con diferentes alternativas como por ejemplo, una segunda opinión por otro especialista o un doble análisis por el mismo. En la primera opción se eleva el coste y en ambas se prolonga el tiempo del diagnóstico. Esto supone una gran motivación para el desarrollo de sistemas de apoyo o asistencia en la toma de decisiones. En este trabajo de tesis se propone, se desarrolla y se justifica un sistema capaz de detectar microcalcificaciones en regiones de interés extraídas de mamografías digitalizadas, para contribuir a la detección temprana del cáncer demama. Dicho sistema estará basado en técnicas de procesamiento de imagen digital, de reconocimiento de patrones y de inteligencia artificial. Para su desarrollo, se tienen en cuenta las siguientes consideraciones: 1. Con el objetivo de entrenar y probar el sistema propuesto, se creará una base de datos de imágenes, las cuales pertenecen a regiones de interés extraídas de mamografías digitalizadas. 2. Se propone la aplicación de la transformada Top-Hat, una técnica de procesamiento digital de imagen basada en operaciones de morfología matemática. La finalidad de aplicar esta técnica es la de mejorar el contraste entre las microcalcificaciones y el tejido presente en la imagen. 3. Se propone un algoritmo novel llamado sub-segmentación, el cual está basado en técnicas de reconocimiento de patrones aplicando un algoritmo de agrupamiento no supervisado, el PFCM (Possibilistic Fuzzy c-Means). El objetivo es encontrar las regiones correspondientes a las microcalcificaciones y diferenciarlas del tejido sano. Además, con la finalidad de mostrar las ventajas y desventajas del algoritmo propuesto, éste es comparado con dos algoritmos del mismo tipo: el k-means y el FCM (Fuzzy c-Means). Por otro lado, es importante destacar que en este trabajo por primera vez la sub-segmentación es utilizada para detectar regiones pertenecientes a microcalcificaciones en imágenes de mamografía. 4. Finalmente, se propone el uso de un clasificador basado en una red neuronal artificial, específicamente un MLP (Multi-layer Perceptron). El propósito del clasificador es discriminar de manera binaria los patrones creados a partir de la intensidad de niveles de gris de la imagen original. Dicha clasificación distingue entre microcalcificación y tejido sano. ABSTRACT Breast cancer is one of the leading causes of women mortality in the world and its early detection continues being a key piece to improve the prognosis and survival. Currently, the most reliable and practical method for early detection of breast cancer is mammography.The presence of microcalcifications has been considered as a very important indicator ofmalignant types of breast cancer and its detection and classification are important to prevent and treat the disease. However, the detection and classification of microcalcifications continue being a hard work due to that, in mammograms there is a poor contrast between microcalcifications and the tissue around them. Factors such as visualization, tiredness or insufficient experience of the specialist increase the risk of omit some present lesions. To reduce this risk, is important to have alternatives such as a second opinion or a double analysis for the same specialist. In the first option, the cost increases and diagnosis time also increases for both of them. This is the reason why there is a great motivation for development of help systems or assistance in the decision making process. This work presents, develops and justifies a system for the detection of microcalcifications in regions of interest extracted fromdigitizedmammographies to contribute to the early detection of breast cancer. This systemis based on image processing techniques, pattern recognition and artificial intelligence. For system development the following features are considered: With the aim of training and testing the system, an images database is created, belonging to a region of interest extracted from digitized mammograms. The application of the top-hat transformis proposed. This image processing technique is based on mathematical morphology operations. The aim of this technique is to improve the contrast betweenmicrocalcifications and tissue present in the image. A novel algorithm called sub-segmentation is proposed. The sub-segmentation is based on pattern recognition techniques applying a non-supervised clustering algorithm known as Possibilistic Fuzzy c-Means (PFCM). The aim is to find regions corresponding to the microcalcifications and distinguish them from the healthy tissue. Furthermore,with the aim of showing themain advantages and disadvantages this is compared with two algorithms of same type: the k-means and the fuzzy c-means (FCM). On the other hand, it is important to highlight in this work for the first time the sub-segmentation is used for microcalcifications detection. Finally, a classifier based on an artificial neural network such as Multi-layer Perceptron is used. The purpose of this classifier is to discriminate froma binary perspective the patterns built from gray level intensity of the original image. This classification distinguishes between microcalcifications and healthy tissue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, a lot of applications use digital images. For example in face recognition to detect and tag persons in photograph, for security control, and a lot of applications that can be found in smart cities, as speed control in roads or highways and cameras in traffic lights to detect drivers ignoring red light. Also in medicine digital images are used, such as x-ray, scanners, etc. These applications depend on the quality of the image obtained. A good camera is expensive, and the image obtained depends also on external factor as light. To make these applications work properly, image enhancement is as important as, for example, a good face detection algorithm. Image enhancement also can be used in normal photograph, for pictures done in bad light conditions, or just to improve the contrast of an image. There are some applications for smartphones that allow users apply filters or change the bright, colour or contrast on the pictures. This project compares four different techniques to use in image enhancement. After applying one of these techniques to an image, it will use better the whole available dynamic range. Some of the algorithms are designed for grey scale images and others for colour images. It is used Matlab software to develop and present the final results. These algorithms are Successive Means Quantization Transform (SMQT), Histogram Equalization, using Matlab function and own implemented function, and V transform. Finally, as conclusions, we can prove that Histogram equalization algorithm is the simplest of all, it has a wide variability of grey levels and it is not suitable for colour images. V transform algorithm is a good option for colour images. The algorithm is linear and requires low computational power. SMQT algorithm is non-linear, insensitive to gain and bias and it can extract structure of the data. RESUMEN. Hoy en día incontable número de aplicaciones usan imágenes digitales. Por ejemplo, para el control de la seguridad se usa el reconocimiento de rostros para detectar y etiquetar personas en fotografías o vídeos, para distintos usos de las ciudades inteligentes, como control de velocidad en carreteras o autopistas, cámaras en los semáforos para detectar a conductores haciendo caso omiso de un semáforo en rojo, etc. También en la medicina se utilizan imágenes digitales, como por ejemplo, rayos X, escáneres, etc. Todas estas aplicaciones dependen de la calidad de la imagen obtenida. Una buena cámara es cara, y la imagen obtenida depende también de factores externos como la luz. Para hacer que estas aplicaciones funciones correctamente, el tratamiento de imagen es tan importante como, por ejemplo, un buen algoritmo de detección de rostros. La mejora de la imagen también se puede utilizar en la fotografía no profesional o de consumo, para las fotos realizadas en malas condiciones de luz, o simplemente para mejorar el contraste de una imagen. Existen aplicaciones para teléfonos móviles que permiten a los usuarios aplicar filtros y cambiar el brillo, el color o el contraste en las imágenes. Este proyecto compara cuatro técnicas diferentes para utilizar el tratamiento de imagen. Se utiliza la herramienta de software matemático Matlab para desarrollar y presentar los resultados finales. Estos algoritmos son Successive Means Quantization Transform (SMQT), Ecualización del histograma, usando la propia función de Matlab y una nueva función que se desarrolla en este proyecto y, por último, una función de transformada V. Finalmente, como conclusión, podemos comprobar que el algoritmo de Ecualización del histograma es el más simple de todos, tiene una amplia variabilidad de niveles de gris y no es adecuado para imágenes en color. El algoritmo de transformada V es una buena opción para imágenes en color, es lineal y requiere baja potencia de cálculo. El algoritmo SMQT no es lineal, insensible a la ganancia y polarización y, gracias a él, se puede extraer la estructura de los datos.