951 resultados para Transformada de Laplace
Resumo:
La premisa inicial de la tesis examina cómo las secuelas de Segunda Guerra mundial motivaron una revisión general de la Ciencia y procuraron una nueva relación entre el hombre y su entorno. Matemáticas, Física y Biología gestaron las Ciencias de la Computación como disciplina de convergencia. En un momento de re-definición del objeto científico, una serie de arquitectos vislumbraron la oportunidad para transformar ciertas convenciones disciplinares. Mediante la incorporación de ontologías y procedimientos de cibernética y computación, trazaron un nuevo espacio arquitectónico. Legitimados por un despegue tecnológico incuestionable, desafían los límites de la profesión explorando campos abiertos a nuevos programas y acciones; amplían el dominio natural de la Arquitectura más allá del objeto(terminado) hacia el proceso(abierto). Se da inicio a la tesis describiendo los antecedentes que conducen a ese escenario de cambio. Se anotan aspectos de Teoría de Sistemas, Computación, Biología y de ciertos referentes de Arquitectura con relevancia para esa nuevo planteamiento. En esos antecedentes residen los argumentos para orientar la disciplina hacia el trabajo con procesos. La linea argumental central del texto aborda la obra de Christopher Alexander, Nicholas Negroponte y Cedric Price a través de una producción teórica y práctica transformada por la computación, y examina la contribución conceptual de cada autor. El análisis comparado de sus modelos se dispone mediante la disección de tres conceptos convergentes: Sistema, Código y Proceso. La discusión crítica se articula por una triangulación entre los autores, donde se identifican comparando por pares las coincidencias y controversias entre ellos. Sirve este procedimiento al propósito de tender un puente conceptual con el escenario arquitectónico actual estimando el impacto de sus propuestas. Se valora su contribución en la deriva del programa cerrado a la especulación , de lo formal a lo informal, de lo único a lo múltiple; del estudio de arquitectura al laboratorio de investigación. Para guiar ese recorrido por la significación de cada autor en el desarrollo digital de la disciplina, se incorporan a la escena dos predicados esenciales; expertos en computación que trabajaron de enlace entre los autores, matizando el significado de sus modelos. El trabajo de Gordon Pask y John Frazer constituye el vehículo de transmisión de los hallazgos de aquellos años, prolonga los caminos iniciados entonces, en la arquitectura de hoy y la que ya se está diseñando para mañana. ABSTRACT The initial premise of the thesis examines how the aftermath of second world war motivated a general revision of science and procure the basis of a new relation between mankind and its environment. Mathematics, Physics, and Biology gave birth to the Computer Sciences as a blend of different knowledge and procedures. In a time when the object of major sciences was being redefined, a few architects saw a promising opportunity for transforming the Architectural convention. By implementing the concepts, ontology and procedures of Cybernetics, Artificial Intelligence and Information Technology, they envisioned a new space for their discipline. In the verge of transgression three prescient architects proposed complete architectural systems through their writings and projects; New systems that challenged the profession exploring open fields through program and action, questioning the culture of conservatism; They shifted architectural endeavor from object to process. The thesis starts describing the scientific and architectural background that lead to that opportunity, annotating aspects of Systems Theory, Computing, Biology and previous Architecture form the process perspective. It then focuses on the Works of Christopher Alexander, Nicholas Negroponte and Cedric Price through their work, and examines each authors conceptual contribution. It proceeds to a critical analysis of their proposals on three key converging aspects: system, architectural encoding and process. Finally, the thesis provides a comparative discussion between the three authors, and unfolds the impact of their work in todays architectural scenario. Their contribution to shift from service to speculation, from formal to informal , from unitary to multiple; from orthodox architecture studio to open laboratories of praxis through research. In order to conclude that triangle of concepts, other contributions come into scene to provide relevant predicates and complete those models. A reference to Gordon Pask and John Frazer is then provided with particular interest in their role as link between those pioneers and todays perspective, pushing the boundaries of both what architecture was and what it could become.
Resumo:
Nowadays, a lot of applications use digital images. For example in face recognition to detect and tag persons in photograph, for security control, and a lot of applications that can be found in smart cities, as speed control in roads or highways and cameras in traffic lights to detect drivers ignoring red light. Also in medicine digital images are used, such as x-ray, scanners, etc. These applications depend on the quality of the image obtained. A good camera is expensive, and the image obtained depends also on external factor as light. To make these applications work properly, image enhancement is as important as, for example, a good face detection algorithm. Image enhancement also can be used in normal photograph, for pictures done in bad light conditions, or just to improve the contrast of an image. There are some applications for smartphones that allow users apply filters or change the bright, colour or contrast on the pictures. This project compares four different techniques to use in image enhancement. After applying one of these techniques to an image, it will use better the whole available dynamic range. Some of the algorithms are designed for grey scale images and others for colour images. It is used Matlab software to develop and present the final results. These algorithms are Successive Means Quantization Transform (SMQT), Histogram Equalization, using Matlab function and own implemented function, and V transform. Finally, as conclusions, we can prove that Histogram equalization algorithm is the simplest of all, it has a wide variability of grey levels and it is not suitable for colour images. V transform algorithm is a good option for colour images. The algorithm is linear and requires low computational power. SMQT algorithm is non-linear, insensitive to gain and bias and it can extract structure of the data. RESUMEN. Hoy en día incontable número de aplicaciones usan imágenes digitales. Por ejemplo, para el control de la seguridad se usa el reconocimiento de rostros para detectar y etiquetar personas en fotografías o vídeos, para distintos usos de las ciudades inteligentes, como control de velocidad en carreteras o autopistas, cámaras en los semáforos para detectar a conductores haciendo caso omiso de un semáforo en rojo, etc. También en la medicina se utilizan imágenes digitales, como por ejemplo, rayos X, escáneres, etc. Todas estas aplicaciones dependen de la calidad de la imagen obtenida. Una buena cámara es cara, y la imagen obtenida depende también de factores externos como la luz. Para hacer que estas aplicaciones funciones correctamente, el tratamiento de imagen es tan importante como, por ejemplo, un buen algoritmo de detección de rostros. La mejora de la imagen también se puede utilizar en la fotografía no profesional o de consumo, para las fotos realizadas en malas condiciones de luz, o simplemente para mejorar el contraste de una imagen. Existen aplicaciones para teléfonos móviles que permiten a los usuarios aplicar filtros y cambiar el brillo, el color o el contraste en las imágenes. Este proyecto compara cuatro técnicas diferentes para utilizar el tratamiento de imagen. Se utiliza la herramienta de software matemático Matlab para desarrollar y presentar los resultados finales. Estos algoritmos son Successive Means Quantization Transform (SMQT), Ecualización del histograma, usando la propia función de Matlab y una nueva función que se desarrolla en este proyecto y, por último, una función de transformada V. Finalmente, como conclusión, podemos comprobar que el algoritmo de Ecualización del histograma es el más simple de todos, tiene una amplia variabilidad de niveles de gris y no es adecuado para imágenes en color. El algoritmo de transformada V es una buena opción para imágenes en color, es lineal y requiere baja potencia de cálculo. El algoritmo SMQT no es lineal, insensible a la ganancia y polarización y, gracias a él, se puede extraer la estructura de los datos.
Resumo:
En el estado de Veracruz, al sur de México, se ubican empresas dedicadas a la obtención de etanol a partir de melaza de azúcar de caña. Las más pequeñas, tienen una producción promedio de 20,000 L de alcohol/día. Los efluentes de la producción de etanol incluyen agua de enfriamiento de condensadores, agua del lavado de tanques de fermentación y vinazas, estas últimas son los efluentes más contaminantes en las destilerías, por su concentración de material orgánico biodegradable y no biodegradable. Las vinazas se generan en grandes volúmenes, produciéndose de 12 a 15 litros de vinazas por cada litro de alcohol destilado. Estos efluentes se caracterizan por tener altas temperaturas, pH ácido y una elevada concentración de DQO así como de sólidos totales. La determinación de la biodegradabilidad anaerobia de un agua residual, permite estimar la fracción de DQO que puede ser transformada potencialmente en metano y la DQO recalcitrante que queda en el efluente. Para el desarrollo de una prueba de biodegradabilidad, es importante considerar diversos factores relacionados con la composición del agua a tratar, composición de los lodos y las condiciones bajo las cuales se lleva a cabo la prueba. La digestión anaerobia de aguas residuales industriales es comúnmente usada en todo el mundo, ofrece significativas ventajas para el tratamiento de efluentes altamente cargados. Los sistemas anaerobios de tratamiento de aguas residuales industriales incluyen tecnologías con biopelículas, estos sistemas de tratamiento anaerobio con biopelícula son una tecnología bien establecida para el tratamiento de efluentes industriales. El Reactor de Lecho Fluidizado Inverso Anaerobio (LFI) ha sido diseñado para el tratamiento de aguas residuales de alta carga, teniendo como ventajas el empleo de un soporte que proporciona una gran superficie y un bajo requerimiento de energía para la fluidización del lecho. En el presente trabajo, se lleva a cabo el análisis de un proceso de producción de etanol, identificando a los efluentes que se generan en el mismo. Se encuentra que el efluente final está compuesto principalmente por las vinazas provenientes del proceso de destilación. En la caracterización de las vinazas provenientes del proceso de producción de etanol a partir de melaza de azúcar de caña, se encontraron valores promedio de DQO de 193.35 gDQO/L, para los sólidos totales 109.78 gST/L y pH de 4.64. Así mismo, en esta investigación se llevó a cabo una prueba de biodegradabilidad anaerobia, aplicada a la vinaza proveniente de la producción de etanol. En la caracterización de los lodos empleados en el ensayo se obtiene una Actividad Metanogénica Especifica de 0.14 g DQO/gSSV.d. El porcentaje de remoción de DQO de la vinaza fue de 62.7%, obteniéndose una k igual a 0.031 h-1 y una taza de consumo de sustrato de 1.26 gDQO/d. El rendimiento de metano fue de 0.19 LCH4/g DQOremovida y el porcentaje de biodegradabilidad de 54.1%. El presente trabajo también evalúa el desempeño de un LFI, empleando Extendospher® como soporte y tratando efluentes provenientes de la producción de etanol. El reactor se arrancó en batch y posteriormente se operó en continuo a diferentes Cargas Orgánicas Volumétricas de 0.5, 1.0, 3.3, 6.8 y 10.4 g DQO/L.d. Además, se evaluaron diferentes Tiempos de Residencia Hidráulica de 10, 5 y 1 días. El sistema alcanzó las siguientes eficiencias promedio de remoción de DQO: 81% para la operación en batch; 58, 67, 59 y 50 % para las cargas de 0.5, 1.0, 3.3, 6.8 g DQO/L.d respectivamente. Para la carga de 10.4 g DQO/L.d, la eficiencia promedio de remoción de DQO fue 38%, en esta condición el reactor presentó inestabilidad y disminución del rendimiento de metano. La generación de metano inició hasta los 110 días de operación del reactor a una carga de 1.0 g DQO/L.d. El sistema alcanzó un rendimiento de metano desde 0.15 hasta 0.34 LCH4/g DQO. Durante la operación del reactor a una carga constante de 6.4 g DQO/L.d, y un TRH de 1 día, se alcanzó una eficiencia promedio de remoción de DQO de 52%. In the state of Veracruz, to the south of Mexico, there are located companies dedicated to the production of ethanol from molasses of cane sugar. The smallest, have a average production of 20,000 L ethanol/day. The effluent of production of ethanol include water of condensers, water originated from the cleanliness of tanks of fermentation and vinasses, the above mentioned are more effluent pollutants in the distilleries, for the poor organic matter degradability. The vinasses are generated in high volumes, producing from 12 to 15 L of vinasses per every liter of distilled ethanol. These effluent are characterized by its high temperature, pH acid and a high concentration of DQO as well as high concentration of TS. The determination of the anaerobic degradability of a waste water, it allows to estimate the fraction of DQO that can be transformed potentially into methane and the recalcitrant DQO that stays in the effluent. For the development of degradability test, it is important to consider factors related to the composition of the water to be treated, composition of the sludge and the conditions under which the test is carried out. The anaerobic digestion of industrial wastes water is used commonly in the whole world, it offers significant advantages for the treatment of effluent highly loaded. The anaerobic treatment of industrial wastes water include technologies with biofilms, this anaerobic treatment whit biofilms systems, is a well-established technology for treatment of industrial effluents. The Anaerobic Inverse Fluidized Bed Reactor (IFBR) has been developed to provide biological treatment of high strength organic wastewater for their large specific surface and their low energy requirements for fluidization. In this work, there is carried out the analysis of a process of production of ethanol, identifying the effluent ones that are generated in the process. One determined that the effluent end is composed principally by the vinasses originated from the process of distillation. In the characterization of the vinasses originated from the process of production of ethanol from cane sugar molasses, there were average values of DQO of 193.35 gDQO/L, average values of solid of 109.78 gST/L and pH of 4.64. In this investigation there was carried out a anaerobic degradability test of the vinasses generated in the production of ethanol. In the characterization of the sludge used in the essay, the specific methanogenic activity (SMA) was 0.14 gDQO/gSSV.d. The average removal of DQO of the vinasses was 62.7 %, k equal to 0.031 h-1 was obtained one and a rate of removal substrate of 1.26 gDQO/d. The methane yield was 0.19 LCH4/gDQO removed and the anaerobic biodegradability was a 54.1 %. This study describes the performance of IFBR with Extendospher®, for the treatment of vinasses. The start-up was made in batch, increasing gradually the Organic Load Rate (OLR): 0.5, 1.0, 3.3, 6.8 and 10.4 g COD/L.d. Different Hydraulic Retention Times (HRT) were evaluated: 10, 5 and 1 days. During the operation in batch, the COD removal obtained was of 81 %, and for OLR of 0.5, 1.0, 3.3, 6.8 g COD/L.d the removal obtained was 58, 67, 59 and 50 % respectively. For a maximum OLR of 10.4 g COD/L.d, the COD removal was 38 %, and the system presented instability and decrease of the yield methane. The methane production initiated after 110 days of the start-up of the IFBR, to organic load rate of 1.0 g COD/L.d. The system reached values in the methane yield from 0.15 up to 0.34 LCH4/g CODremoved, for the different organic load rates. During the operation to a constant OLR of 6.4 g COD/L.d, and a HRT of 1 day, the Anaerobic Inverse Fluidized Bed Reactor reached a maximum efficiency of removal of 52 %.
Resumo:
El presenta trabajo fin de master tiene como objetivo el desarrollo de un simulador electromagnético basado en FDTD. El simulador incluye fronteras abiertas basadas en PML y transformada de campo cercano a lejano en el dominio del tiempo.
Resumo:
(SPA) El polipirrol es uno de los polímeros conductores más utilizados en la preparación de electrodos debido a su alta actividad catalítica para la oxidación y reducción del metanol. En este trabajo se ha depositado electroquímicamente polipirrol a diferentes potenciales de depósito, Ed, sobre tela de carbón no tejida Freudenberg en medio ácido. Se ha analizado la morfología y la respuesta electroquímica en medio HClO4 y en presencia de HClO4+MeOH antes y después de la síntesis del polipirrol sobre ella. Lastructura de las películas obtenidas se ha estudiado por espectroscopia infrarroja de transformada de Fourier, FTIR. Se observa que el polipirrol mejora las propiedades electroquímicas de la tela de carbón, obteniéndose el mejor resultado para su aplicación como soporte del catalizador en pilas de combustible con la película sintetizada a 1,0V. (ENG) Polypyrrole is one of the most used conducting polymers in electrode building due to its high catalytic activity to the methanol oxidation and reduction. By this motive, polypyrrole has been electrochemically synthesized at constant potential, Ed, on Freudenberg carbon cloth in acid medium. Carbon cloth morphology and electrochemical behaviour in HClO4 and in HClO4+MeOH before and after the polypyrrole eposition have been analysed. The structure of the films was studied by Fourier transform infrared spectroscopy, FTIR. The polypyrrole improves the electrochemical properties of the studied carbon cloth. The biggest charge of the electroactive area is the one synthesized at 1.0V, being the best for its application as catalyst support in fuel cells.
Resumo:
O espaço social subjacente à unidade literária de Êxodo 20,22-23,19 pressupõe uma sociedade agrária. Aparentemente é monótona, marcada por inúmeros conflitos sociais. O contexto social é de empobrecimento das famílias clânico-tribais israelitas. A nova economia se organiza em torno do santuário. Na pesquisa, há bastante consenso quanto à origem desta unidade literária conhecida como Livro da Aliança. É literatura jurídica de caráter religioso. Uma prescrição jurídica não precede as condições da realidade a que vai se referir, mas prescreve sobre as condições e situações já existentes. Na pesquisa clássica atual, encontram-se duas grandes correntes sobre a origem e a época desta literatura. Uma defende que o Livro da Aliança remonta à época pré-estatal, passagem do tribalismo para a monarquia; a outra argumenta que o Livro da Aliança, enquanto corpus codificado de leis, é um produto tardio , possivelmente surgido no final do século VIII ou início do século VII a.C. O Livro da Aliança é a base literária da presente pesquisa. Quanto à origem e à época do Livro da Aliança, sigo a corrente que defende ser o texto da época final do período tribal, anterior à monarquia. Esta época foi marcada por grandes mudanças econômicas: passagem de uma economia solidária de subsistência para uma economia de concentração do produto. A tese consiste em analisar a violência contra as mulheres, estruturada no discurso jurídico do Livro da Aliança. Busca-se desvendar os mecanismos que justificam e naturalizam as práticas de violência. O destaque é a violência contra as mulheres escravas, contra as filhas e, de modo especial, enfatizo as violências contra as mulheres feiticeiras. Evidencio três categorias de escravas prescritas no texto: as escravas domésticas, que sofrem violências físicas, podendo chegar até à morte debaixo do castigo da vara; as escravas temporárias, que têm seus olhos destruídos e os seus dentes quebrados; e as filhas que são vendidas como escravas. Sua sexualidade é transformada em mercadoria. Há filhas que são seduzidas, violadas e submetidas como mulher ao seu estuprador. O único grupo social descrito a partir da sua função pública são as feiticeiras. As violências são institucionais e sexistas. O patriarcado é o princípio organizador da sociedade. A característica do Livro da Aliança é marcadamente androcêntrica.(AU)