888 resultados para TRANSFORMACIONES DE FOURIER
Resumo:
La premisa inicial de la tesis examina cómo las secuelas de Segunda Guerra mundial motivaron una revisión general de la Ciencia y procuraron una nueva relación entre el hombre y su entorno. Matemáticas, Física y Biología gestaron las Ciencias de la Computación como disciplina de convergencia. En un momento de re-definición del objeto científico, una serie de arquitectos vislumbraron la oportunidad para transformar ciertas convenciones disciplinares. Mediante la incorporación de ontologías y procedimientos de cibernética y computación, trazaron un nuevo espacio arquitectónico. Legitimados por un despegue tecnológico incuestionable, desafían los límites de la profesión explorando campos abiertos a nuevos programas y acciones; amplían el dominio natural de la Arquitectura más allá del objeto(terminado) hacia el proceso(abierto). Se da inicio a la tesis describiendo los antecedentes que conducen a ese escenario de cambio. Se anotan aspectos de Teoría de Sistemas, Computación, Biología y de ciertos referentes de Arquitectura con relevancia para esa nuevo planteamiento. En esos antecedentes residen los argumentos para orientar la disciplina hacia el trabajo con procesos. La linea argumental central del texto aborda la obra de Christopher Alexander, Nicholas Negroponte y Cedric Price a través de una producción teórica y práctica transformada por la computación, y examina la contribución conceptual de cada autor. El análisis comparado de sus modelos se dispone mediante la disección de tres conceptos convergentes: Sistema, Código y Proceso. La discusión crítica se articula por una triangulación entre los autores, donde se identifican comparando por pares las coincidencias y controversias entre ellos. Sirve este procedimiento al propósito de tender un puente conceptual con el escenario arquitectónico actual estimando el impacto de sus propuestas. Se valora su contribución en la deriva del programa cerrado a la especulación , de lo formal a lo informal, de lo único a lo múltiple; del estudio de arquitectura al laboratorio de investigación. Para guiar ese recorrido por la significación de cada autor en el desarrollo digital de la disciplina, se incorporan a la escena dos predicados esenciales; expertos en computación que trabajaron de enlace entre los autores, matizando el significado de sus modelos. El trabajo de Gordon Pask y John Frazer constituye el vehículo de transmisión de los hallazgos de aquellos años, prolonga los caminos iniciados entonces, en la arquitectura de hoy y la que ya se está diseñando para mañana. ABSTRACT The initial premise of the thesis examines how the aftermath of second world war motivated a general revision of science and procure the basis of a new relation between mankind and its environment. Mathematics, Physics, and Biology gave birth to the Computer Sciences as a blend of different knowledge and procedures. In a time when the object of major sciences was being redefined, a few architects saw a promising opportunity for transforming the Architectural convention. By implementing the concepts, ontology and procedures of Cybernetics, Artificial Intelligence and Information Technology, they envisioned a new space for their discipline. In the verge of transgression three prescient architects proposed complete architectural systems through their writings and projects; New systems that challenged the profession exploring open fields through program and action, questioning the culture of conservatism; They shifted architectural endeavor from object to process. The thesis starts describing the scientific and architectural background that lead to that opportunity, annotating aspects of Systems Theory, Computing, Biology and previous Architecture form the process perspective. It then focuses on the Works of Christopher Alexander, Nicholas Negroponte and Cedric Price through their work, and examines each authors conceptual contribution. It proceeds to a critical analysis of their proposals on three key converging aspects: system, architectural encoding and process. Finally, the thesis provides a comparative discussion between the three authors, and unfolds the impact of their work in todays architectural scenario. Their contribution to shift from service to speculation, from formal to informal , from unitary to multiple; from orthodox architecture studio to open laboratories of praxis through research. In order to conclude that triangle of concepts, other contributions come into scene to provide relevant predicates and complete those models. A reference to Gordon Pask and John Frazer is then provided with particular interest in their role as link between those pioneers and todays perspective, pushing the boundaries of both what architecture was and what it could become.
Resumo:
La estructura urbana de Madrid comenzó a dibujarse con los primeros asentamientos fortificados del siglo IX. Sus posteriores ampliaciones estuvieron acotadas por los sucesivos recintos que delimitaron los contornos de una capital en constante expansión. De carácter inicialmente defensivo, luego fiscal y sanitario, estas estructuras estuvieron articuladas en torno a las puertas de acceso a la Villa, estableciendo un sistema general de cerramiento y comunicación que permitiera el control de personas y mercancías en su tránsito hacia el interior de la ciudad. La modestia inicial con que las puertas y tapias del recinto edificado en tiempos de Felipe IV desempeñaron sus funciones de espaldas al exterior de la Villa fue remplazada por un creciente protagonismo, de carácter simbólico y ornamental, que trascendió a su propia arquitectura para inspirar algunas de las importantes transformaciones urbanas operadas en su entorno. Relacionada principalmente con el ideal ilustrado de embellecimiento de la ciudad, la renovación de sus puertas principales se completaba con la reedificación y regularización de sus cercas, y la conformación de nuevos paseos en las afueras de la capital, cuyo trazado vertebrará en buena medida la ocupación de la periferia y la consiguiente definición de la trama urbana del Madrid de hoy. El presente trabajo de investigación indaga sobre la significación urbana de las Reales Puertas de la Villa de Madrid, a partir de la revisión de su establecimiento en los sucesivos recintos de la capital, con especial atención a las transformaciones urbanas operadas en ella desde la definición de su último límite hasta la proyección futura del Madrid ampliado según el anteproyecto de Carlos Mª de Castro. La observación conjunta de las componentes arquitectónica y urbana de las puertas de la Villa de Madrid se ofrece a partir de un relato cronológico de los hechos, fundamentado en su justificación documental y la secuencia visual registrada en la cartografía histórica de la ciudad. La incorporación de aportaciones gráficas de nueva elaboración, de carácter y alcance diversos, proporciona una superposición espacio-temporal que posibilita la lectura comparada de las arquitecturas de las Reales Puertas de la Villa de Madrid y de las transformaciones urbanas operadas a partir de ellas, determinantes en gran medida la configuración de la ciudad actual. ABSTRACT Madrid’s current urban structure has its roots in the first fortified settlements of the IX century. Its subsequent expansions due to the capital’s constant growth were limited by successive enclosures, built originally as a defense mechanism, but later used for fiscal and sanitary purposes as well. The construction of these structures pivoted around the gates that gave access to the city, establishing an enclosure that allowed control of both people and goods on their way into the city. The gates and walls originally built by Felipe IV performed their purpose with a modesty that was later replaced by an increasing symbolic and ornamental prominence, eventually surpassing their own architecture to inspire profound urban changes around them. With the purpose of embellishing the city, the main gates were renovated, the walls were rebuilt and standardized, and new avenues were laid out outside the city. These changes dictated in large part the settling on the suburbs and the resulting configuration of Madrid’s urban scene as we know it today. This research explores the urban significance of the Royal Gates of Madrid through the study of the enclosures that marked the limits of the city. Special attention is given to the urban changes since the last enclosure was established through to Carlos Mª de Castro’s draft for Madrid’s future projection. The architectonic and urban facets of Madrid’s gates are examined simultaneously in a series of chronological events, based on relevant documentation and the graphical record found in Madrid’s historic cartography. This thesis includes new graphic contributions, which allow the comparison of the architecture of the Royal Gates of Madrid as they evolved in time and space. These documents are essential in order to understand the urban transformations that took place based on the Gates, having largely determined the city’s current configuration.
Resumo:
The structure of the tetrameric K+ channel from Streptomyces lividans in a lipid bilayer environment was studied by polarized attenuated total reflection Fourier transform infrared spectroscopy. The channel displays approximately 43% α-helical and 25% β-sheet content. In addition, H/D exchange experiments show that only 43% of the backbone amide protons are exchangeable with solvent. On average, the α-helices are tilted 33° normal to the membrane surface. The results are discussed in relationship to the lactose permease of Escherichia coli, a membrane transport protein.
Resumo:
Isolated immature maize (Zea mays L.) embryos have been shown to acquire tolerance to rapid drying between 22 and 25 d after pollination (DAP) and to slow drying from 18 DAP onward. To investigate adaptations in protein profile in association with the acquisition of desiccation tolerance in isolated, immature maize embryos, we applied in situ Fourier transform infrared microspectroscopy. In fresh, viable, 20- and 25-DAP embryo axes, the shapes of the different amide-I bands were identical, and this was maintained after flash drying. On rapid drying, the 20-DAP axes had a reduced relative proportion of α-helical protein structure and lost viability. Rapidly dried 25-DAP embryos germinated (74%) and had a protein profile similar to the fresh control axes. On slow drying, the α-helical contribution in both the 20- and 25-DAP embryo axes increased compared with that in the fresh control axes, and survival of desiccation was high. The protein profile in dry, mature axes resembled that after slow drying of the immature axes. Rapid drying resulted in an almost complete loss of membrane integrity in the 20-DAP embryo axes and much less so in the 25-DAP axes. After slow drying, low plasma membrane permeability ensued in both the 20- and 25-DAP axes. We conclude that slow drying of excised, immature embryos leads to an increased proportion of α-helical protein structures in their axes, which coincides with additional tolerance of desiccation stress.
Resumo:
Experimental evidence for proton transfer via a hydrogen-bonded network in a membrane protein is presented. Bacteriorhodopsin's proton transfer mechanism on the proton uptake pathway between Asp-96 and the Schiff base in the M-to-N transition was determined. The slowdown of this transfer by removal of the proton donor in the Asp-96-->Asn mutant can be accelerated again by addition of small weak acid anions such as azide. Fourier-transform infrared experiments show in the Asp-96-->Asn mutant a transient protonation of azide bound to the protein in the M-to-N transition and, due to the addition of azide, restoration of the IR continuum band changes as seen in wild-type bR during proton pumping. The continuum band changes indicate fast proton transfer on the uptake pathway in a hydrogen-bonded network for wild-type bR and the Asp-96-->Asn mutant with azide. Since azide is able to catalyze proton transfer steps also in several kinetically defective bR mutants and in other membrane proteins, our finding might point to a general element of proton transfer mechanisms in proteins.
Resumo:
Este trabajo se centra en el análisis de textos que identifican cambios sociales en los órdenes educativos, cognitivos y existenciales. Se trata de una parte de los cambios que se están produciendo o se prevén en un futuro próximo, asociados a transformaciones (materiales, organizativas, etc.) en el orden de la comunicación. Obviamente, lo que cambia en las formas de educar, de conocer o de actuar en la vida cotidiana afecta, en general, a los niños y niñas máxime si participan en las interacciones comunicativas más directamente vinculadas a tales cambios: videojuegos, ‘mundos virtuales’, etc.
Resumo:
We work with Besov spaces Bp,q0,b defined by means of differences, with zero classical smoothness and logarithmic smoothness with exponent b. We characterize Bp,q0,b by means of Fourier-analytical decompositions, wavelets and semi-groups. We also compare those results with the well-known characterizations for classical Besov spaces Bp,qs.
Resumo:
Baseando-se em um sistema com um grau de liberdade, é apresentada neste trabalho a equação de movimento, bem como a sua resolução através das Transformadas de Fourier e da Transformada Rápida de Fourier (FFT). Através da análise da forma como são feitas as integrações nas transformadas, foram estudados e aplicados os ponderadores de Newton-Cotes na resolução da equação de movimento, de forma a aumentar substancialmente a precisão dos resultados em comparação com a forma convencional da Transformada de Fourier.
Resumo:
Es un tópico generalizado afirmar que asistimos a una crisis del mundo de la lectura y que el libro está en clara decadencia frente a otros objetos culturales dentro del ámbito juvenil. No obstante, los estudios empíricos (mayormente cuantitativos) no lo corroboran así, y los jóvenes siguen leyendo más que los adultos. La lectura sigue inscrita en los códigos educativos actuales como una fuente de legitimación y de ganancia de capital cultural imprescindible. Más bien a lo que se asiste es a una dislocación del orden cultural derivado, entre otras cosas, de la irrupción de las nuevas tecnologías y ofertas mediáticas. El lector joven está habituado a la hipertextualidad y a la lectura en pantalla, acumulando prácticas de lectura nuevas y singulares. Las tecnologías han roto el “orden de la lectura”, el canon clásico de consumo de libros, que acaba compitiendo con otras prácticas mediáticas y produciendo lectores de contornos múltiples y caóticos. Una especie de zapping cultural ha deformado la lectura como método de culturización y ocio desinteresado alimentando posturas apocalípticas que alertan de lo patológico del fenómeno. Es en ese momento de fragmentación y complejidad de las prácticas de lectura tradicionales en el que nos situamos.
Resumo:
En el marco de la investigación sobre riesgos naturales, se analiza, como estudio de caso, un espacio costero en el que la artificialización de ramblas deriva del reciente y espectacular proceso de crecimiento de la actividad turística y la consiguiente creación de un nuevo sistema de asentamientos urbanos, realizados sin la necesaria consideración del riesgo de inundaciones.
Resumo:
El aumento de la plantación de diversos cultivos destinados a la producción de biocombustibles representa en muchos territorios, principalmente en aquellos destinados a la agricultura y a la ganadería, un conflicto socioeconómico de excepcional relevancia, lo cual conlleva cambios profundos tanto en la evolución del paisaje como en la articulación del territorio. Con ello se pretende contribuir al debate sobre las repercusiones territoriales de los biocombustibles en el medio rural y en sus consecuencias socioeconómicas a diversas escalas.
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.