733 resultados para filtro
Resumo:
Analisi cinematica delle fasi del nuoto, velocità in vasca e body roll attraverso l'uso di sensori inerziali. Implementazione di innovativi algoritmi di calcolo con l'utilizzo del filtro di Kalman 3D, matrici di rotazione e quaternioni per la determinazione dei parametri fondamentali del nuoto e della posizione del polso nel sistema di riferimento di torace. Confronto dei risultati ottenuti mediante i diversi algoritmi e loro validazione con quelli ottenuti con l'uso della stereofotogrammetria. Gli algoritmi possono essere generalizzati ad altri gesti motori.
Resumo:
Questa tesi è essenzialmente focalizzata sullo sviluppo di un sistema di controllo in tempo reale per uno Shaker Elettrodinamico usato per riprodurre profili di vibrazione ambientale registrati in contesti reali e di interesse per il recupero di energia. Grazie all'utilizzo di uno shaker elettrodinamico è quindi possibile riprodurre scenari di vibrazione reale in laboratorio e valutare più agevolmente le prestazioni dei trasduttori meccanici. Tuttavia, è richiesto un controllo dello Shaker non solo in termini di stabilità ma anche per garantire l'esatta riproduzione del segnale registrato nel contesto reale. In questa tesi, si è scelto di sviluppare un controllo adattivo nel dominio del tempo per garantire la corretta riproduzione del profilo di accelerazione desiderato. L'algoritmo è stato poi implementato sul sistema di prototipazione rapida dSPACE DS1104 basata su microprocessore PowerPC. La natura adattiva dell'algoritmo proposto permette di identificare cambiamenti nella risposta dinamica del sistema, e di regolare di conseguenza i parametri del controllore. Il controllo del sistema è stato ottenuto anteponendo al sistema un filtro adattivo la cui funzione di trasferimento viene continuamente adattata per rappresentare al meglio la funzione di trasferimento inversa del sistema da controllare. Esperimenti in laboratorio confermano l'efficacia del controllo nella riproduzione di segnali reali e in tipici test di sweep frequenziale.
Resumo:
Elaborato che si propone di evidenziare come i veicoli a benzina e a diesel possano soddisfare la normativa Euro 6. Si analizza il funzionamento dei principali sistemi di after-treatment come: catalizzatore SCR e DeNOx, trappola LNT, filtri FAP e DPF, sistemi EGR, per i motori ad accensione per compressione e catalizzatore TWC per motori ad accensione comandata. Parallelamente, si spiega l'evoluzione della normativa da Euro 6b a Euro 6c in termini di riduzione del numero di particelle di particolato emesse per km e come rispondere a queste più restrittive condizioni; viene introdotto, in via ancora sperimentale, il filtro antiparticolato GPF e un sistema di misurazione di nano particelle di dimensioni inferiori a 23 nm cioè una rivalutazione del metodo PMP. Contestualmente si definisce il progetto CARS 2020, il quale aggiunge una limitazione anche sulla quantità di anidride carbonica emessa a 95 g/km e le eventuali possibili soluzioni per rispettarla: da un maggior uso di combustibili alternativi a miglioramenti tecnologici dei motori stessi. Infine si studiano gli sviluppi dei cicli di omologazione, dal 2017 infatti entreranno in gioco test su strada con dispositivi PEMS on-board e cicli armonizzati WLTC. Le procedure RDE e WLTP permetteranno di testare i vecioli in maniera più reale e globale, rispettivamente, riuscendo a fornire anche valori attendibili dei consumi registrati durante le prove.
Resumo:
En el cultivo de pimiento, Myzus persicae es una plaga cuyo manejo se basa en el uso de agroquímicos de síntesis. Una alternativa de menor impacto ambiental para su control es la aplicación de extractos naturales. El objetivo del trabajo fue evaluar el efecto de extractos provenientes de Melia azedarach, Eucalyptus globulus y Ricinus communis sobre este pulgón. Se escogió la técnica del film residual en papel de filtro, manteniendo los individuos sobre hojas de pimiento ornamental. Se utilizaron extractos acetónicos a una dilución de 10 000 ppm, con 5 individuos en cada una de las 10 réplicas de los tratamiento. Se efectuaron lecturas para mortalidad a los 30 minutos y 24, 48 y 72 horas. Los resultados se analizaron mediante ANOVA de medidas repetidas y prueba de Tukey. El extracto de eucalipto produjo una mortalidad significativa, alcanzando un máximo cercano al 50 % en promedio, para la lectura a las 72 horas. Asimismo se observó un efecto sobre la reproducción, generado por los extractos de eucalipto y ricino, aunque no pudo probarse esto estadísticamente. Para el ricino, se infiere un probable efecto de repelencia. Se propone continuar con los ensayos de extractos, ampliando la evaluación de su efecto sobre el potencial reproductivo del organismo blanco.
Resumo:
La formulación de cebos para el control de hormigas cortadoras es conveniente por su mayor practicidad y economía. En el proceso de desarrollo de hormiguicidas con sustancias naturales, se probaron extractos de cítricos como atrayentes para cebos, sobre obreras de Acromyrmex lundi, en dos ensayos: en laboratorio y en campo. Con extractos de naranja dulce, pomelo rosado, mandarina y naranja amarga se impregnaron discos de papel de filtro. Se ofrecieron a las hormigas en un diseño de bloques al azar (DBA) con libre elección. En laboratorio, en hormiguero artificial, se presentaron grupos de 20 discos con los tratamientos. Se registró el número de discos remanentes y el tiempo transcurrido hasta la remoción del primer disco. En campo, el bloque correspondió a cada hormiguero y se dispusieron grupos de 10 discos en cada senda, registrándose los mismos parámetros. El extracto de mandarina resultó preferido en laboratorio según la prueba de Tukey. En campo, fue preferido el extracto de pomelo. Los extractos utilizados atrajeron a las obreras de A. lundi, podadoras en dicotiledóneas; se observó respuesta diferencial para las distintas especies pero el ordenamiento en la preferencia no fue consistente para los ensayos en condiciones artificiales y de campo.
Resumo:
En el norte de la provincia de Entre Ríos se ha desarrollado un modelo de producción de arroz basado en el uso de agua superficial mediante la construcción de presas de tierra: existen más de 60 con superficies variables. El uso de agroquímicos en esa zona podría introducir un factor de contaminación en el suelo y en el agua de las represas. El objetivo de este trabajo fue determinar la calidad del agua de 19 represas para riego del centro norte de Entre Ríos, mediante bioensayos de germinación de Lactuca sativa var. mantecosa. Los bioensayos se realizaron en cajas de Petri, con papel de filtro en la base humedecido con 3 ml de agua de la muestra correspondiente. Se sembraron 20 semillas por caja, distribuyéndose los tratamientos en bloques al azar con 4 repeticiones, en cámara de germinación con alternancia de luz y oscuridad. Se registró el porcentaje de germinación y la longitud promedio de la raíz; se calculó un índice de germinación. El porcentaje de germinación promedio de los tratamientos fue de 96,07% y de 97,9% en el testigo. El índice de germinación en todos los casos fue superior al 60% y no se detectó toxicidad en el agua proveniente de las distintas represas.
Resumo:
Pocos objetos hay en las Ciencias Sociales tan difíciles de precisar y abordar como la ideología. Alude a las relaciones entre conocimiento y realidad y nos sitúa en el campo de las representaciones que los hombres hacen de sí mismos y de sus relaciones con el mundo. Los hombres, a medida que se construye su subjetividad, no observan, analizan o experimentan la realidad directamente sino que lo hacen a través de complejas mediaciones. Una parte importante de esas mediaciones está constituida por lo “ideológico". Para añadir un nuevo elemento problemático se considera que la ideología no es sólo el filtro a través del cual se conoce y se significa el mundo de lo real sino que también opera para producir su conservación o transformación. Con lo cual la separación clara entre objeto y sujeto tiende a hacerse más difusa. Más allá de las dificultades que la evanescencia del objeto conlleva, su conceptualización es indispensable para completar el análisis de la realidad social y sus transformaciones. Este artículo intenta hacer una síntesis del recorrido que la formulación del concepto ha seguido dentro del campo teórico marxista (que es donde se ha producido el debate más sustantivo), tomando como eje conductor las dos vertientes principales en que se ha dividido su definición (aunque no siempre de manera explícita o, incluso, advertida): la ideología como cosmovisión o como falsa conciencia.
Resumo:
El objetivo fue determinar la concentración efectiva media de reducción del crecimiento radical (CE50), de una formulación del herbicida glifosato mediante bioensayos de germinación con semillas de lechuga y de trigo. Para lechuga se probaron 9 dosis/tratamientos decrecientes entre 1.215 y 0,01215 g i.a.ha-1 (formulado: Sal amónica de la N-Fosfonometil glicina, 40,5 [g e.a. glifosato 36,9% p/v]) y para trigo 5 dosis decrecientes (entre 12,15 y 1,215 g i.a.ha-1) y su respectivo control negativo (agua destilada). Se utilizaron cajas de Petri, con papel de filtro en la base humedecido con 3 ml de la solución correspondiente. Se sembraron 20 semillas por caja, distribuyéndose los tratamientos en bloques al azar con 4 repeticiones, en cámara de crecimiento a 20°C con alternancia de luz y oscuridad. Se midió la longitud radicular de todas las semillas de cada tratamiento con calibre digital. Se determinó el porcentaje de germinación y se calculó el índice de germinación. Las CE50, es decir, las dosis que redujeron en un 50% el crecimiento radical para lechuga y trigo, fueron 6,682 y 9,416 g i.a.ha-1, respectivamente. Los materiales probados resultaron sensibles a distintas dosis de glifosato y por lo tanto pueden utilizarse como indicadores biológicos de toxicidad específica.
Resumo:
El presente trabajo describe una nueva metodología para la detección automática del espacio glotal de imágenes laríngeas tomadas a partir de 15 vídeos grabados por el servicio ORL del hospital Gregorio Marañón de Madrid con luz estroboscópica. El sistema desarrollado está basado en el modelo de contornos activos (snake). El algoritmo combina en el pre-procesado, algunas técnicas tradicionales (umbralización y filtro de mediana) con técnicas más sofisticadas tales como filtrado anisotrópico. De esta forma, se obtiene una imagen apropiada para el uso de las snakes. El valor escogido para el umbral es del 85% del pico máximo del histograma de la imagen; sobre este valor la información de los píxeles no es relevante. El filtro anisotrópico permite distinguir dos niveles de intensidad, uno es el fondo y el otro es la glotis. La inicialización se basa en obtener el módulo del campo GVF; de esta manera se asegura un proceso automático para la selección del contorno inicial. El rendimiento del algoritmo se valida usando los coeficientes de Pratt y se compara contra una segmentación realizada manualmente y otro método automático basado en la transformada de watershed. SUMMARY: The present work describes a new methodology for the automatic detection of the glottal space from laryngeal images taken from 15 videos recorded by the ENT service of the Gregorio Marañon Hospital in Madrid with videostroboscopic equipment. The system is based on active contour models (snakes). The algorithm combines for the pre-processing, some traditional techniques (thresholding and median filter) with more sophisticated techniques such as anisotropic filtering. In this way, we obtain an appropriate image for the use of snake. The value selected for the threshold is 85% of the maximum peak of the image histogram; over this point the information of the pixels is not relevant. The anisotropic filter permits to distinguish two intensity levels, one is the background and the other one is the glottis. The initialization is based on the obtained magnitude by GVF field; in this manner an automatic process for the initial contour selection will be assured. The performance of the algorithm is tested using the Pratt coefficient and compared against a manual segmentation and another automatic method based on the watershed transformation.
Resumo:
El proyecto, “Aplicaciones de filtrado adaptativo LMS para mejorar la respuesta de acelerómetros”, se realizó con el objetivo de eliminar señales no deseadas de la señal de información procedentes de los acelerómetros para aplicaciones automovilísticas, mediante los algoritmos de los filtros adaptativos LMS. Dicho proyecto, está comprendido en tres áreas para su realización y ejecución, los cuales fueron ejecutados desde el inicio hasta el último día de trabajo. En la primera área de aplicación, diseñamos filtros paso bajo, paso alto, paso banda y paso banda eliminada, en lo que son los filtros de butterworth, filtros Chebyshev, de tipo uno como de tipo dos y filtros elípticos. Con esta primera parte, lo que se quiere es conocer, o en nuestro caso, recordar el entorno de Matlab, en sus distintas ecuaciones prediseñadas que nos ofrece el mencionado entorno, como también nos permite conocer un poco las características de estos filtros. Para posteriormente probar dichos filtros en el DSP. En la segunda etapa, y tras recordar un poco el entorno de Matlab, nos centramos en la elaboración y/o diseño de nuestro filtro adaptativo LMS; experimentado primero con Matlab, para como ya se dijo, entender y comprender el comportamiento del mismo. Cuando ya teníamos claro esta parte, procedimos a “cargar” el código en el DSP, compilarlo y depurarlo, realizando estas últimas acciones gracias al Visual DSP. Resaltaremos que durante esta segunda etapa se empezó a excitar las entradas del sistema, con señales provenientes del Cool Edit Pro, y además para saber cómo se comportaba el filtro adaptativo LMS, se utilizó señales provenientes de un generador de funciones, para obtener de esta manera un desfase entre las dos señales de entrada; aunque también se utilizó el propio Cool Edit Pro para obtener señales desfasadas, pero debido que la fase tres no podíamos usar el mencionado software, realizamos pruebas con el generador de funciones. Finalmente, en la tercera etapa, y tras comprobar el funcionamiento deseado de nuestro filtro adaptativo DSP con señales de entrada simuladas, pasamos a un laboratorio, en donde se utilizó señales provenientes del acelerómetro 4000A, y por supuesto, del generador de funciones; el cual sirvió para la formación de nuestra señal de referencia, que permitirá la eliminación de una de las frecuencias que se emitirá del acelerómetro. Por último, cabe resaltar que pudimos obtener un comportamiento del filtro adaptativo LMS adecuado, y como se esperaba. Realizamos pruebas, con señales de entrada desfasadas, y obtuvimos curiosas respuestas a la salida del sistema, como son que la frecuencia a eliminar, mientras más desfasado estén estas señales, mas se notaba. Solucionando este punto al aumentar el orden del filtro. Finalmente podemos concluir que pese a que los filtros digitales probados en la primera etapa son útiles, para tener una respuesta lo más ideal posible hay que tener en cuenta el orden del filtro, el cual debe ser muy alto para que las frecuencias próximas a la frecuencia de corte, no se atenúen. En cambio, en los filtros adaptativos LMS, si queremos por ejemplo, eliminar una señal de entre tres señales, sólo basta con introducir la frecuencia a eliminar, por una de las entradas del filtro, en concreto la señal de referencia. De esta manera, podemos eliminar una señal de entre estas tres, de manera que las otras dos, no se vean afectadas por el procedimiento. Abstract The project, "LMS adaptive filtering applications to improve the response of accelerometers" was conducted in order to remove unwanted signals from the information signal from the accelerometers for automotive applications using algorithms LMS adaptive filters. The project is comprised of three areas for implementation and execution, which were executed from the beginning until the last day. In the first area of application, we design low pass filters, high pass, band pass and band-stop, as the filters are Butterworth, Chebyshev filters, type one and type two and elliptic filters. In this first part, what we want is to know, or in our case, remember the Matlab environment, art in its various equations offered by the mentioned environment, as well as allows us to understand some of the characteristics of these filters. To further test these filters in the DSP. In the second stage, and recalling some Matlab environment, we focus on the development and design of our LMS adaptive filter; experimented first with Matlab, for as noted above, understand the behavior of the same. When it was clear this part, proceeded to "load" the code in the DSP, compile and debug, making these latest actions by the Visual DSP. Will highlight that during this second stage began to excite the system inputs, with signals from the Cool Edit Pro, and also for how he behaved the LMS adaptive filter was used signals from a function generator, to thereby obtain a gap between the two input signals, but also used Cool Edit Pro himself for phase signals, but due to phase three could not use such software, we test the function generator. Finally, in the third stage, and after checking the desired performance of our DSP adaptive filter with simulated input signals, we went to a laboratory, where we used signals from the accelerometer 4000A, and of course, the function generator, which was used for the formation of our reference signal, enabling the elimination of one of the frequencies to be emitted from the accelerometer. Note that they were able to obtain a behavior of the LMS adaptive filter suitable as expected. We test with outdated input signals, and got curious response to the output of the system, such as the frequency to remove, the more outdated are these signs, but noticeable. Solving this point with increasing the filter order. We can conclude that although proven digital filters in the first stage are useful, to have a perfect answer as possible must be taken into account the order of the filter, which should be very high for frequencies near the frequency cutting, not weakened. In contrast, in the LMS adaptive filters if we for example, remove a signal from among three signals, only enough to eliminate the frequency input on one of the inputs of the filter, namely the reference signal. Thus, we can remove a signal between these three, so that the other two, not affected by the procedure.
Resumo:
La realización de este proyecto se basa en simular un sistema de recepción de baja velocidad para lo cual se opta por un modelo en el que primero se hará un filtrado a la entrada, después una traslación en frecuencia de la señal seguido de otro filtrado esta vez más selectivo y con una caída más abrupta y finalmente se implementarán los algoritmos de decodificación que se elijan. Finalmente se contermpla la opción de pasar esa simulación a lenguaje C y programar un DSP. La realización del proyecto constará de dos partes: - La primera parte consistirá en el estudio y características necesarias para cada uno de los elementos que se han definido para el sistema de recepción, eligiendo adecuadamente los tipos de filtro que se implementarán (FIR o IIR) en base al estudio de las características de cada uno de ellos, frecuencias de entrada y ancho de banda que se traten, métodos de filtrado, algoritmos de decodificación, etc. Se realizará una descripción teórica sobre los métodos de filtrado overlap add y overlap save así como del algoritmo cordic, explicando sus características y ventajas con respecto a los métodos clásicos. - La segunda parte será la de realizar una simulación de cada uno de esos elementos para ayudar a la comprensión del estudio realizado y comprobar que las características y decisiones adoptadas cumplan con lo requerido para el sistema de recepción estudiado. Los medios para realizar a cabo este desarrollo serán un programa de simulación basado en métodos numéricos como puede ser Matlab. Para la simulación de transmisión no se diseñarán funciones de modulación (QAM, FM AM, PSK)utilizando para ello las definidas en Matlab ya que no es objetivo de este proyecto realizar una simulación de transmisión. Tras generar la señal aleatoria se procede a su modulación y muestreo (para simular una transmisión a alta frecuencia en la que cada símbolo se repetirá durante varios ciclos de la portadora). Observando los resultados de las simulaciones del receptor comprobaremos cómo es posible evitar el uso de funciones trigonométricas u otros métodos de alto coste para varios tipos de modulaciones, demostrando que el resultado es similar al obtenido empleando métodos clásicos.
Resumo:
A Le Corbusier le hubiera gustado que le recordaran también como pintor. Igual que su compatriota E. L. Boullée, devoto como él de las formas más puras de la geometría, hubiera escrito gustoso, bajo el título de cualquiera de sus libros de Arquitectura, aquella frase: “Yo también soy pintor”. Para él, como para el ilustrado, la Arquitectura comparte una dimensión artística con la Pintura (y con la Escultura, la Música, la Poesía...etc.) que se pone de manifiesto en el proceso creativo y que está encaminada a emocionar al espectador que participa y se involucra en la obra. Arquitectura y Pintura se convierten de este modo en caminos diferentes para llegar a los mismos objetivos. Esta Tesis trata sobre el proceso de creación en la arquitectura de Le Corbusier y de cómo en él se producen continuas incursiones en el mundo de la pintura cubista. Asumiendo que es un tema sobre el que ya se ha escrito mucho ( las bibliografías de Le Corbusier y de Picasso son sin duda las más numerosas entre los artistas de sus respectivos campos) creemos que es posible ofrecer una nueva visión sobre los mecanismos que, tanto el arquitecto como el pintor, utilizaban en su trabajo. Lo que buscamos es desvelar un modo de creación, común entre ambas disciplinas, basado en el análisis de ciertos componentes artísticos capaces de ser ensamblados en composiciones sintéticas siempre nuevas, que inviten al espectador a participar del hecho creativo en una continua actividad cognoscitiva. El proyecto cubista, tanto para Le Corbusier como para Picasso, se alcanza al final de un largo camino como resultado de un profundo estudio de la realidad (en la Arquitectura, social, cultural y económica, y en la Pintura la realidad cotidiana), en el que el motivo, ya sea objeto, espacio ó luz, intenta ser “conocido” en su totalidad a través del filtro personal del artista. Es por lo tanto, algo a lo que se llega, y cuyo resultado, a priori, es desconocido. En cualquier caso, forma parte de una investigación, de un proceso continuo que intencionadamente supera la circunstancia concreta de cada ocasión. Es la coincidencia en los procesos de proyecto lo que unificará arquitecturas en principio tan dispares como la Capilla de Ronchamp, el Tribunal de Justicia de Chandigarh, o el Hospital de Venecia, y son esos procesos los que aquí, a través de varias obras concretas vamos a intentar desvelar. Es cierto que el proyecto presentado al concurso del Palacio de los Soviets de Moscú es un ejercicio brillante de Constructivismo, pero este resultado no se anunciaba al principio. Si analizamos el proceso de proyecto encontramos que inicialmente la propuesta no era muy diferente a la del Centorsoyuz, o incluso a la de la Cité de Refuge o a la del Pavillon Suisse de París. La solución final sólo se alcanzaría después de mover muchísimas veces, las piezas preseleccionadas en el solar. Cuando entendemos el Convento de la Tourette como una versión actualizada del monasterio dominico tradicional estamos haciendo una lectura parcial y engañosa de la idea de proyecto del arquitecto. En los croquis previos del archivo de la Fondation Le Corbusier encontramos otra vez las mismas ideas que en la vieja Cité de Refuge, ahora actualizadas y adaptadas al nuevo fin. Con la Asamblea de Chandigarh las similitudes son obvias e incluso aparece el mismo cubo al que se superpone una pirámide como techo, avanzando hacia el espacio central pero aquí aparece un gran hiperboloide en un interior cerrado. Este hiperboloide fue en el inicio del proyecto un cubo, y después un cilindro. Sólo al final encontró su forma óptima en un volumen de geometría reglada que en su idoneidad podría también valer para otros edificios, por ejemplo para una Iglesia. La comparación que se ha hecho de este volumen con las torres de refrigeración de Ahmedabad es puramente anecdótica pues, como veremos, esta forma se alcanza desde la lógica proyectual que sigue el pensamiento plástico de Le Corbusier, en este caso, en la adaptación del espacio cilíndrico a la luz, pero no como inspiración en las preexistencias. En todas sus obras los mecanismos que se despliegan son, en muchas ocasiones pictóricos (fragmentación analítica del objeto y del espacio, ensamblaje multidimensional, tramas subyacentes de soporte, escenografía intencionada ...etc.) y el programa en cada caso, como el motivo de los cubistas, no es más que una ocasión más para investigar una nueva forma de hacer y de entender, la Arquitectura. Cualquier proyecto del pintor-arquitecto cubista es en realidad un trabajo continuo desarrollado a lo largo de toda su vida, en el que se utilizan, una y otra vez, las mismas palabras de su vocabulario particular y personal. aunque con diferente protagonismo en cada ocasión. Se trata de alcanzar, desde ellas mismas, una perfección que las valide universalmente. Los mismos objetos, los mismos mecanismos, las mismas constantes manipulaciones del espacio y de la luz, se desplegarán, como ingredientes previos con los que trabajar, sobre el tablero de dibujo coincidiendo con el inicio de cada proyecto, para desde aquí hacer que el motivo que se trata de construir emerja, aunque a veces sea de manera incierta e inesperada, como resultado alcanzado al final. Con muchas dudas, a partir de la primera hipótesis planteada, se confirma, se añade o se elimina cada elemento según van apareciendo en el tiempo los condicionantes del solar, del programa o incluso a veces de obsesiones propias del arquitecto. El trabajo que presentamos utiliza un método inductivo que va desde los ejemplos hasta los conceptos. Empezaremos por investigar el proceso de proyecto en una obra concreta y con los mecanismos que en él se utilizan plantearemos una síntesis que los generalice y nos permitan extenderlos al entendimiento de la totalidad de su obra. Se trata en realidad de un método que en sí mismo es cubista: desde la fragmentación del objeto-proyecto procedemos a su análisis desde diversos puntos de vista, para alcanzar después su recomposición en una nueva estructura sintética. Cada mecanismo se analiza de forma independiente siguiendo un cierto orden que correspondería, supuestamente, al trabajo del arquitecto: manipulación del objeto, método compositivo, entendimiento del soporte (lienzo o espacio) y de su geometría implícita, relación con el observador, concepto y materialidad del espacio y de la luz ..etc. recurriendo a la teoría sólo en la medida en que necesitemos de ella para aclarar el exacto sentido con el que son utilizados. En nuestra incursión en el mundo de la pintura, hemos decidido acotar el Cubismo a lo que fue en realidad su periodo heroico y original, que discurrió entre 1907 y 1914, periodo en el que desarrollado casi exclusivamente por los que habían sido sus creadores, Picasso y Braque. Solo en alguna ocasión entraremos en la pintura del “tercer cubista”, Juan Gris para entender el tránsito de los mecanismos de los primeros hasta la pintura purista, pero no es nuestra intención desviar las cuestiones planteadas de un ámbito puramente arquitectónico Resulta difícil hablar del cubismo de Pablo Picasso sin hacerlo comparativamente con el de Georges Braque (para algunos especialistas es éste incluso el auténtico creador de la Vanguardia), siendo necesario enfrentar los mecanismos de ambos pintores para obtener un exacto entendimiento de lo que supuso la Vanguardia. Por eso nos parece interesante estudiar la obra de Le Corbusier en paralelo con la de otro arquitecto de tal manera que los conceptos aparezcan como polaridades entre las que situar los posibles estados intermedios. En este sentido hemos recurrido a James Stirling. Su deuda es clara con Le Corbusier, y sobre todo con el Cubismo, y como vamos a ver, los mecanismos que utiliza en su obra, siendo similares, difieren significativamente. La Tesis adquiere un sentido comparativo y aparecen así atractivas comparaciones Picasso-Le Corbusier, Braque-Stirling que se suman a las ya establecidas Picasso-Braque y Le Corbusier-Stirling. Desde ellas podemos entender mejor lo que supone trabajar con mecanismos cubistas en Arquitectura. Por último, en relación a los dibujos creados expresamente para esta Tesis, hemos de indicar que las manipulaciones que se han hecho de los originales les convierten en elementos analíticos añadidos que aclaran determinadas ideas expresadas en los croquis de sus autores. Algunos están basados en croquis del archivo de la Fondation Le Corbusier (se indican con el número del plano) y otros se han hecho nuevos para explicar gráficamente determinadas ideas. Se completa la parte gráfica con las fotografías de las obras pictóricas, los planos originales e imágenes de los edificios construidos, extraídos de los documentos de la bibliografía citada al final. Nos disponemos pues, a indagar en las obras del Cubismo, en una búsqueda de los mecanismos con los que hacía su arquitectura Le Corbusier.
Resumo:
Las casas de corredor o corralas, como popularmente son conocidas, constituyen uno de esos ejemplos que si bien son el legado de la pobreza asociada a la inmigración que asoló casi todas las ciudades industriales occidentales, el filtro del tiempo las ha convertido en el recuerdo nostálgico de épocas en las que las relaciones humanas vecinales formaban parte de la vida cotidiana de las familias. La sociedad urbana actual, cada vez mas lejos de fomentar dichas relaciones vecinales, añora las ventajas del modelo que reflejan los sainetes y zarzuelas de la época, y reivindica este modo de vivir. El modelo arquitectónico que se materializa en las casas de corredor, es una evolución de dos formas de entender la residencia: la casa patio romana, a la que debe su organización formal y funcional, y el adarve musulmán, del que toma el modo de vida comunitario, como protección frente al espacio público. Las casas de corredor que han llegado hasta nuestros días, se construyeron en su mayoría durante la segunda mitad del s. XIX, época álgida de pobreza y miseria en los suburbios, que son en definitiva el germen de este tipo de edificios. Pero lo que vemos no es sino una adaptación lenta y progresiva de los modelos clásicos mencionados, que crearon excelentes ejemplos, algunos en pié hoy en día. Corralas típicas del s. XIX en Madrid: c/ Espíritu Santo 21, c/ Buenavista nº 16 y c/ Mesón de Paredes nº 57 No deja de ser una paradoja el hecho de que este tipo de edificios constituya uno de los modelos residenciales de la arquitectura popular más difundidos a lo largo de la historia, y que sin embargo, haya caído en el olvido y el desconocimiento por gran parte de la población. Quizá, el motivo es que en la actualidad las casas de corredor estén asociadas al término infravivienda, dado que las condiciones de habitabilidad que ya eran mínimas hace mas de 100 años, hoy son absolutamente inaceptables. Sin embargo, existen notables ejemplos que demuestran que su rehabilitación puede devolver a algunos de estos edificios el esquema de vida comunitaria que tanto éxito tuvo como modelo residencial. Este modelo sigue aún vigente, y aunque se ha adaptado a los actuales requerimientos de independencia y espacio, podemos encontrarlo en la edificación residencial suburbana, cuyos espaciosos bloques organizados en torno a un jardín comunal (privado respecto de la calle), vuelcan sus estancias más nobles a este espacio, dando la espalda a la calle pública. El acceso a las viviendas se articula en muchas ocasiones desde el mismo espacio interior y no ESTUDIO TIPOLÓGICO, CONSTRUCTIVO Y ESTRUCTURAL DE LAS CASAS DE CORREDOR EN MADRID 2 directamente desde la calle, tal y como sucede en las corralas. Es evidente el éxito que este modelo sigue teniendo en la actualidad, y los beneficios que las familias encuentran en cuanto a las relaciones con los vecinos, relaciones que son casi imposibles en el modelo urbano característico de las zonas céntricas. Evolución actual del modelo de convivencia vecinal de la corrala: del Corral del Conde en Sevilla, a un típico bloque residencial de área suburbial Reutilización directa del concepto de corrala en la actualidad: viviendas y apartamentos modernos en Huelva y Sevilla Es por esto que se debe intentar recuperar este modelo de vida también en el centro de las ciudades, sobre la recuperación de las casas de corredor existentes o bien sobre obras de nueva planta. La rehabilitación de las casas de corredor, siguiendo unos criterios actuales en cuanto a espacio y salubridad, puede ser muy aceptable por el sector más joven de nuestra sociedad, sin duda más receptivo y abierto a este tipo de convivencia más cercana. Corralas de nueva planta en Pza. General Vara del Rey 12 (C. Martorell & M. Alberola), y en c/ Embajadores 52 (Espegel-Fisac Arqtos.) RESUMEN 3 En esta tesis, se profundiza y avanza en el conocimiento de las casas de corredor en todos sus ámbitos: En primer lugar se estudia su origen y evolución a lo largo de la historia de Madrid, algo necesario para entender su belleza, pero también su realidad actual, y por lo tanto para poder decidir el tipo de rehabilitación a realizar sobre las mismas. En segundo lugar se describen y analizan las características geométrico formales de este tipo de edificios. Este análisis dará explicación a la estrecha relación que existe entre la organización espacial de este tipo de edificios y el tamaño y forma del solar en el que se ubican, demostrando así que estamos ante la adaptación de un modelo universal y no de un modelo arquitectónico predeterminado En tercer lugar se estudiarán los materiales y sistemas constructivos que emplearon sus antiguos promotores, que permanecen en muchos de los edificios que han llegado a nuestros días. La construcción de las casas de corredor sigue unos procedimientos muy semejantes a los empleados en las edificaciones residenciales de carácter popular de la misma época, por lo que mucha de la documentación aportada en este trabajo tiene un campo de aplicación mucho más extenso que el acotado en esta tesis. Por último, se aborda el análisis y cuantificación de los mecanismos que rigen el funcionamiento estructural de muros y forjados. Este análisis permitirá estudiar y analizar con mayor rigor técnico las diversas técnicas de rehabilitación estructural que son normalmente necesarias para devolver a estos edificios la estabilidad y seguridad requeridas para el nuevo uso al que se destinen. Al igual que sucede con el estudio constructivo, los sistemas de rehabilitación estructural estudiados, tienen un espectro de utilización muy amplio, dado el gran número de edificios que presentan tipologías estructurales semejantes a las de las casas de corredor. La conclusión principal es que el conocimiento preciso del funcionamiento de este tipo de estructuras y de los sistemas de intervención, demuestran que la opción de la recuperación estructural es viable en muchos casos frente a la demolición y reconstrucción posteriores.
Resumo:
El Proyecto Integrado de Desarrollo Tecnológico "Rehabilitación Sostenible" (RS) aprobado por el Centro para el Desarrollo Tecnológico e Industrial (CDTI) investiga sobre un sisitema integrado para la rehabilitación sostenible de edificios existentes, teniendo como objetivo prioritario la mejora de su eficiencia energética. Además de ese objetivo principal se persiguen otros como es mejorar las condiciones de habitabilidad de las viviendas. Este Trabajo Fin de Máster y su continuación en Tesis Doctoral se enmarcan en este proyecto. El Proyecto RS tiene entre sus objetivos encontrar maneras de aplicar soluciones constructivas bioclimáticas, pasivas o de acondicionamiento ambiental en los edificios residenciales existentes. En ellas el elemento hueco desempeña funciones fundamentales tanto en los sistemas pasivos de calefacción como de refrigeración. Este trabajo presenta una visión global del hueco en fachada como sistema especializado de baja tecnología que regula el ambiente interior de los edificios atendiendo a sus funciones diferenciadas con el objetivo de maximizar la contribución de este elemento constructivo a la eficiencia energética en edificios residenciales de Andalucía. Este objetivo se enfoca desde la perspectiva más amplia de la sostenibilidad que considera aspectos sociales y económicos además de medioambientales. Desde el punto de vista social, la investigación se plantea, centrando la atención en el usuario y en la importancia de su implicación para el éxito de una rehabilitación energética. El análisis de las posibilidades de mejora del hueco persigue aportar al usuario soluciones que le ofrezcan algo más que lo estrictamente energético: salud y confort. Desde lo económico, se buscan soluciones de baja tecnología, que tengan una buena relación coste-beneficio, soluciones homologadas por la experiencia que, en la actualidad, necesitan ser revisadas y cuantificadas en términos de ahorro energético y de reducción de emisiones de CO2 para que su contribución pueda ser valorada adecuadamente. La integración de métodos tradicionales con tecnología contemporánea y la interacción del usuario se presentan como punto de partida necesario para el diseño de soluciones de huecos en fachada de edificios residenciales que sean sostenibles. En primer lugar, la investigación aborda las propiedades del hueco en fachada relacionadas con la energía. A partir de ahí se revisan otras funciones del hueco más allá de la de filtro de frío y de calor, calidad de aire interior, refrigeración natural, iluminación natural, protección acústica, seguridad, visión del exterior, protección de la intimidad y función estética. Cada función se relaciona con la normativa española de obligado cumplimiento que le afecta y con los criterios de la herramienta de evaluación medioambiental VERDE que las recoge. La investigación se complementa con el Caso de Estudio de uno de los pilotos demostradores del proyecto RS (bloque de 140 viviendas en Av Jacinto Benavente 40, Málaga) en el que se evalúa el comportamiento energético de los huecos de su fachada principal considerando la mejora de las condiciones de habitabilidad como un aspecto social fundamental de la rehabilitación.
Resumo:
En esta Tesis Doctoral se aborda la utilización de filtros de difusión no lineal para obtener imágenes constantes a trozos como paso previo al proceso de segmentación. En una primera parte se propone un formulación intrínseca para la ecuación de difusión no lineal que proporcione las condiciones de diseño necesarias sobre los filtros de difusión. A partir del marco teórico propuesto, se proporciona una nueva familia de difusividades; éstas son obtenidas a partir de técnicas de difusión no lineal relacionadas con los procesos de difusión regresivos. El objetivo es descomponer la imagen en regiones cerradas que sean homogéneas en sus niveles de grises sin contornos difusos. Asimismo, se prueba que la función de difusividad propuesta satisface las condiciones de un correcto planteamiento semi-discreto. Esto muestra que mediante el esquema semi-implícito habitualmente utilizado, realmente se hace un proceso de difusión no lineal directa, en lugar de difusión inversa, conectando con proceso de preservación de bordes. Bajo estas condiciones establecidas, se plantea un criterio de parada para el proceso de difusión, para obtener imágenes constantes a trozos con un bajo coste computacional. Una vez aplicado todo el proceso al caso unidimensional, se extienden los resultados teóricos, al caso de imágenes en 2D y 3D. Para el caso en 3D, se detalla el esquema numérico para el problema evolutivo no lineal, con condiciones de contorno Neumann homogéneas. Finalmente, se prueba el filtro propuesto para imágenes reales en 2D y 3D y se ilustran los resultados de la difusividad propuesta como método para obtener imágenes constantes a trozos. En el caso de imágenes 3D, se aborda la problemática del proceso previo a la segmentación del hígado, mediante imágenes reales provenientes de Tomografías Axiales Computarizadas (TAC). En ese caso, se obtienen resultados sobre la estimación de los parámetros de la función de difusividad propuesta. This Ph.D. Thesis deals with the case of using nonlinear diffusion filters to obtain piecewise constant images as a previous process for segmentation techniques. I have first shown an intrinsic formulation for the nonlinear diffusion equation to provide some design conditions on the diffusion filters. According to this theoretical framework, I have proposed a new family of diffusivities; they are obtained from nonlinear diffusion techniques and are related with backward diffusion. Their goal is to split the image in closed contours with a homogenized grey intensity inside and with no blurred edges. It has also proved that the proposed filters satisfy the well-posedness semi-discrete and full discrete scale-space requirements. This shows that by using semi-implicit schemes, a forward nonlinear diffusion equation is solved, instead of a backward nonlinear diffusion equation, connecting with an edgepreserving process. Under the conditions established for the diffusivity and using a stopping criterion I for the diffusion time, I have obtained piecewise constant images with a low computational effort. The whole process in the one-dimensional case is extended to the case where 2D and 3D theoretical results are applied to real images. For 3D, develops in detail the numerical scheme for nonlinear evolutionary problem with homogeneous Neumann boundary conditions. Finally, I have tested the proposed filter with real images for 2D and 3D and I have illustrated the effects of the proposed diffusivity function as a method to get piecewise constant images. For 3D I have developed a preprocess for liver segmentation with real images from CT (Computerized Tomography). In this case, I have obtained results on the estimation of the parameters of the given diffusivity function.