39 resultados para New parameters

em Universidad Politécnica de Madrid


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La historia de la construcción de las catedrales góticas es la historia de la búsqueda de la luz. Esta afirmación casi metafísica, recoge una realidad asumida por todos los historiadores tanto de la arquitectura antigua como del resto de las artes. La luz en el gótico ha sido descrita bajo múltiples matices como son su carácter simbólico, cromático e incluso místico, sin embargo no existe, en el estudio del conocimiento de la luz gótica, ninguna referencia a la misma como realidad física cuantificable, cualificable y por tanto, clasificable. La presente tesis doctoral aborda el concepto de la iluminación gótica desde una perspectiva nueva. Demuestra, con un método analítico inédito, que la iluminación gótica es cuantificable y cualificable. Para ello analiza en profundidad la iluminación de una selección de 6 edificios muestra, las catedrales de Gerona, Toledo, Sevilla y León, la basílica de Santa María del Mar y la capilla de la Sainte Chapelle de París, mediante una toma de datos “in situ” de iluminación y su comparación con los datos lumínicos obtenidos por un programa de soleamiento de la simulación en tres dimensiones de los distintos proyectos originales góticos. El análisis exhaustivo de las muestras y su introducción en el método analítico descrito, permite determinar, en primer lugar, unas cualidades inéditas que identifican la luz de los espacios góticos según unos parámetros nuevos como son la intensidad, expresividad, recorrido, distorsión y color. También describe cuales son los factores determinantes, de nuevo inéditos, que modulan cada una de las cualidades y en que proporción lo hacen cada uno de ellos. Una vez establecidas las cualidades y los factores que las definen, la tesis doctoral establece los rangos en los que se mueven las distintas cualidades y que conformarán la definitiva clasificación según “tipos de cualidad lumínica”. Adicionalmente, la tesis propone un procedimiento abreviado de acercamiento a la realidad de la iluminación gótica a través de unas fórmulas matemáticas que relacionan los factores geométricos detectados y descritos en la tesis con el resultado luminoso del espacio en lo que concierne a las dos cualidades más importantes de las reflejadas, la intensidad y la expresividad. Gracias a este método y su procedimiento abreviado, la clasificación se hace extensible al resto de catedrales góticas del panorama español y europeo y abre el camino a nuevas clasificaciones de edificios históricos de distintas épocas, iniciando un apasionante camino por recorrer en la recuperación de “la luz original”. Esta clasificación y sus cualidades podrán a su vez, ser utilizadas como herramientas de conocimiento de un factor determinante a la hora de describir cualquier espacio gótico y su aportación pretende ser un nuevo condicionante a tener en cuenta en el futuro, ayudando a entender y respetar, en las posibles intervenciones a realizar sobre el patrimonio arquitectónico, aquello que fue en su inicio motor principal del proyecto arquitectónico y que hoy día no se valora suficientemente tan solo por falta de conocimiento: su luz. The history of the construction of the Gothic cathedrals is the history of the search for light. This almost etaphysical statement reflects a reality accepted by all historians both of ancient architecture and other arts. Light in the Gothic period has been described under multiple approaches such as its symbolic, chromatic and even mystical character. However, in the study of the Gothic light, no references exist to it as a physical quantifiable and qualifiable reality and therefore, classifiable. This dissertation deals with the concept of Gothic light from a new perspective. With a new analytical method, it shows that Gothic lighting is quantifiable and can be classified regarding quality. To this end, a selection of 6 buildings light samples are analyzed; the cathedrals of Gerona, Toledo, Seville and León, the basilica of Santa María of the Sea and the Sainte Chapelle in Paris. "In situ" lighting data is collected and it is compared with lighting data obtained by a program of sunlight of the 3D simulation of various Gothic original projects. The comprehensive analysis of the samples and the data introduced in the analytical method described, allows determining, first, important qualities that identify the light of Gothic spaces according to new parameters such as intensity, expressiveness, trajectory, distortion and color. It also describes the determinant factors, which modulate each of the qualities and in what proportion they do it. Once the qualities and factors that define them have been established, in this doctoral dissertation the ranges regarding different qualities are set, which will make up the final classification according to "types of light quality". In addition, this work proposes an abbreviated procedure approach to the reality of the Gothic lighting through some mathematical formulae, relating the geometric factors identified and described in the study with the bright result of space regarding the two most important qualities of the light,intensity and expressiveness. Thanks to this method and to the abbreviated procedure, the classification can be applied to other Spanish and European Gothic cathedrals and opens up the way to new classifications of historic buildings from different eras, starting an exciting road ahead in the recovery of the "original light". This classification and its qualities may in turn be used as tools to know a determinant factor when describing any Gothic space. Its contribution is intended to be a new conditioning factor to keep in mind in the future, helping to understand and respect, in possible interventions on the architectural heritage, what was the main engine to start the architectural project and which today is not valued enough due to the lack knowledge: the light.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Europe needs to restructure its energy system. The aim to decrease the reliance on fossil fuels to a higher dependence on renewable energy has now been imposed by The European Commission. In order to achieve this goal there is a great interest in Norway to become "The Green Battery of Europe". In the pursuit of this goal a GIS-tool was created to investigate the pump storage potential in Norway. The tool searches for possible connections between existing reservoirs and dams with the criteria selected by the user. The aim of this thesis was to test the tool and see if the results suggested were plausible, develop a cost calculation method for the PSH lines, and make suggestions for further development of the tool. During the process the tool presented many non-feasible pumped storage hydropower (PSH) connections. The area of Telemark was chosen for the more detailed study. The results were discussed and some improvements were suggested for further development of the tool. Also a sensitivity test was done to see which of the parameters set by the user are the most relevant for the PSH connection suggestion. From a range of the most promising PSH plants suggested by the tool, the one between Songavatn and Totak was chosen for a case study, where there already exists a power plant between both reservoirs. A new Pumped Storage Plant was designed with a power production of 1200 MW. There are still many topics open to discussion, such as how to deal with environmental restrictions, or how to deal with inflows and outflows of the reservoirs from the existing power plants. Consequently the GIS-tool can be a very useful tool to establish the best possible connections between existing reservoirs and dams, but it still needs a deep study and the creation of new parameters for the user.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El frente de un túnel puede colapsar si la presión aplicada sobre el es inferior a un valor limite denominado presión “critica” o “de colapso”. En este trabajo se desarrolla y presenta un mecanismo de rotura rotacional generado punto a punto para el cálculo de la presión de colapso del frente de túneles excavados en terrenos estratificados o en materiales que siguen un criterio de rotura nolineal. La solución propuesta es una solución de contorno superior en el marco del Análisis Límite y supone una generalización del mecanismo de rotura mas reciente existente en la bibliografía. La presencia de un terreno estratificado o con un criterio de rotura no-lineal implica una variabilidad espacial de las propiedades resistentes. Debido a esto, se generaliza el mecanismo desarrollado por Mollon et al. (2011b) para suelos, de tal forma que se puedan considerar valores locales del ángulo de rozamiento y de la cohesión. Además, la estratificación del terreno permite una rotura parcial del frente, por lo que se implementa esta posibilidad en el mecanismo, siendo la primera solución que emplea un mecanismo de rotura que se ajusta a la estratigrafía del terreno. Por otro lado, la presencia de un material con un criterio de rotura no-lineal exige introducir en el modelo, como variable de estudio, el estado tensional en el frente, el cual se somete al mismo proceso de optimización que las variables geométricas del mecanismo. Se emplea un modelo numérico 3D para validar las predicciones del mecanismo de Análisis Limite, demostrando que proporciona, con un esfuerzo computacional significativamente reducido, buenas predicciones de la presión critica, del tipo de rotura (global o parcial) en terrenos estratificados y de la geometría de fallo. El mecanismo validado se utiliza para realizar diferentes estudios paramétricos sobre la influencia de la estratigrafía en la presión de colapso. Igualmente, se emplea para elaborar cuadros de diseño de la presión de colapso para túneles ejecutados con tuneladora en macizos rocosos de mala calidad y para analizar la influencia en la estabilidad del frente del método constructivo. Asimismo, se lleva a cabo un estudio de fiabilidad de la estabilidad del frente de un túnel excavado en un macizo rocoso altamente fracturado. A partir de el se analiza como afectan las diferentes hipótesis acerca de los tipos de distribución y de las estructuras de correlación a los resultados de fiabilidad. Se investiga también la sensibilidad de los índices de fiabilidad a los cambios en las variables aleatorias, identificando las mas relevantes para el diseño. Por ultimo, se lleva a cabo un estudio experimental mediante un modelo de laboratorio a escala reducida. El modelo representa medio túnel, lo cual permite registrar el movimiento del material mediante una técnica de correlación de imágenes fotográficas. El ensayo se realiza con una arena seca y se controla por deformaciones mediante un pistón que simula el frente. Los resultados obtenidos se comparan con las estimaciones de la solución de Análisis Límite, obteniéndose un ajuste razonable, de acuerdo a la literatura, tanto en la geometría de rotura como en la presión de colapso. A tunnel face may collapse if the applied support pressure is lower than a limit value called the ‘critical’ or ‘collapse’ pressure. In this work, an advanced rotational failure mechanism generated ‘‘point-by-point” is developed to compute the collapse pressure for tunnel faces in layered (or stratified) grounds or in materials that follow a non-linear failure criterion. The proposed solution is an upper bound solution in the framework of limit analysis which extends the most advanced face failure mechanism in the literature. The excavation of the tunnel in a layered ground or in materials with a non-linear failure criterion may lead to a spatial variability of the strength properties. Because of this, the rotational mechanism recently proposed by Mollon et al. (2011b) for Mohr-Coulomb soils is generalized so that it can consider local values of the friction angle and of the cohesion. For layered soils, the mechanism needs to be extended to consider the possibility for partial collapse. The proposed methodology is the first solution with a partial collapse mechanism that can fit to the stratification. Similarly, the use of a nonlinear failure criterion introduces the need to introduce new parameters in the optimization problem to consider the distribution of normal stresses along the failure surface. A 3D numerical model is employed to validate the predictions of the limit analysis mechanism, demonstrating that it provides, with a significantly reduced computational effort, good predictions of critical pressure, of the type of collapse (global or partial) in layered soils, and of its geometry. The mechanism is then employed to conduct parametric studies of the influence of several geometrical and mechanical parameters on face stability of tunnels in layered soils. Similarly, the methodology has been further employed to develop simple design charts that provide the face collapse pressure of tunnels driven by TBM in low quality rock masses and to study the influence of the construction method. Finally, a reliability analysis of the stability of a tunnel face driven in a highly fractured rock mass is performed. The objective is to analyze how different assumptions about distributions types and correlation structures affect the reliability results. In addition, the sensitivity of the reliability index to changes in the random variables is studied, identifying the most relevant variables for engineering design. Finally, an experimental study is carried out using a small-scale laboratory model. The problem is modeled in half, cutting through the tunnel axis vertically, so that displacements of soil particles can be recorded by a digital image correlation technique. The tests were performed with dry sand and displacements are controlled by a piston that supports the soil. The results of the model are compared with the predictions of the Limit Analysis mechanism. A reasonable agreement, according to literature, is obtained between the shapes of the failure surfaces and between the collapse pressures observed in the model tests and computed with the analytical solution.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

There is controversy regarding the use of the similarity functions proposed in the literature to compare generalized trapezoidal fuzzy numbers since conflicting similarity values are sometimes output for the same pair of fuzzy numbers. In this paper we propose a similarity function aimed at establishing a consensus. It accounts for the different approaches of all the similarity functions. It also has better properties and can easily incorporate new parameters for future improvements. The analysis is carried out on the basis of a large and representative set of pairs of trapezoidal fuzzy numbers.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Las patologías de la voz se han transformado en los últimos tiempos en una problemática social con cierto calado. La contaminación de las ciudades, hábitos como el de fumar, el uso de aparatos de aire acondicionado, etcétera, contribuyen a ello. Esto alcanza más relevancia en profesionales que utilizan su voz de manera frecuente, como, por ejemplo, locutores, cantantes, profesores o teleoperadores. Por todo ello resultan de especial interés las técnicas de ayuda al diagnóstico que son capaces de extraer conclusiones clínicas a partir de una muestra de la voz grabada con un micrófono, frente a otras invasivas que implican la exploración utilizando laringoscopios, fibroscopios o videoendoscopios, técnicas en cualquier caso mucho más molestas para los pacientes al exigir la introducción parcial del instrumental citado por la garganta, en actuaciones consideradas de tipo quirúrgico. Dentro de aquellas técnicas se ha avanzado mucho en un período de tiempo relativamente corto. En lo que se refiere al diagnóstico de patologías, hemos pasado en los últimos quince años de trabajar principalmente con parámetros extraídos de la señal de voz –tanto en el dominio del tiempo como en el de la frecuencia– y con escalas elaboradas con valoraciones subjetivas realizadas por expertos a hacerlo también con parámetros procedentes de estimaciones de la fuente glótica. La importancia de utilizar la fuente glótica reside, a grandes rasgos, en que se trata de una señal vinculada directamente al estado de la estructura laríngea del locutor y también en que está generalmente menos influida por el tracto vocal que la señal de voz. Es conocido que el tracto vocal guarda más relación con el mensaje hablado, y su presencia dificulta el proceso de detección de patología vocal. Estas estimaciones de la fuente glótica han sido obtenidas a través de técnicas de filtrado inverso desarrolladas por nuestro grupo de investigación. Hemos conseguido, además, profundizar en la naturaleza de la señal glótica: somos capaces de descomponerla y relacionarla con parámetros biomecánicos de los propios pliegues vocales, obteniendo estimaciones de elementos como la masa, la pérdida de energía o la elasticidad del cuerpo y de la cubierta del pliegue, entre otros. De las componentes de la fuente glótica surgen también los denominados parámetros biométricos, relacionados con la forma de la señal, que constituyen por sí mismos una firma biométrica del individuo. También trabajaremos con parámetros temporales, relacionados con las diferentes etapas que se observan dentro de la señal glótica durante un ciclo de fonación. Por último, consideraremos parámetros clásicos de perturbación y energía de la señal. En definitiva, contamos ahora con una considerable cantidad de parámetros glóticos que conforman una base estadística multidimensional, destinada a ser capaz de discriminar personas con voces patológicas o disfónicas de aquellas que no presentan patología en la voz o con voces sanas o normofónicas. Esta tesis doctoral se ocupa de varias cuestiones: en primer lugar, es necesario analizar cuidadosamente estos nuevos parámetros, por lo que ofreceremos una completa descripción estadística de los mismos. También estudiaremos cuestiones como la distribución de los parámetros atendiendo a criterios como el de normalidad estadística de los mismos, ocupándonos especialmente de la diferencia entre las distribuciones que presentan sujetos sanos y sujetos con patología vocal. Para todo ello emplearemos diferentes técnicas estadísticas: generación de elementos y diagramas descriptivos, pruebas de normalidad y diversos contrastes de hipótesis, tanto paramétricos como no paramétricos, que considerarán la diferencia entre los grupos de personas sanas y los grupos de personas con alguna patología relacionada con la voz. Además, nos interesa encontrar relaciones estadísticas entre los parámetros, de cara a eliminar posibles redundancias presentes en el modelo, a reducir la dimensionalidad del problema y a establecer un criterio de importancia relativa en los parámetros en cuanto a su capacidad discriminante para el criterio patológico/sano. Para ello se aplicarán técnicas estadísticas como la Correlación Lineal Bivariada y el Análisis Factorial basado en Componentes Principales. Por último, utilizaremos la conocida técnica de clasificación Análisis Discriminante, aplicada a diferentes combinaciones de parámetros y de factores, para determinar cuáles de ellas son las que ofrecen tasas de acierto más prometedoras. Para llevar a cabo la experimentación se ha utilizado una base de datos equilibrada y robusta formada por doscientos sujetos, cien de ellos pertenecientes al género femenino y los restantes cien al género masculino, con una proporción también equilibrada entre los sujetos que presentan patología vocal y aquellos que no la presentan. Una de las aplicaciones informáticas diseñada para llevar a cabo la recogida de muestras también es presentada en esta tesis. Los distintos estudios estadísticos realizados nos permitirán identificar aquellos parámetros que tienen una mayor contribución a la hora de detectar la presencia de patología vocal. Alguno de los estudios, además, nos permitirá presentar una ordenación de los parámetros en base a su importancia para realizar la detección. Por otra parte, también concluiremos que en ocasiones es conveniente realizar una reducción de la dimensionalidad de los parámetros para mejorar las tasas de detección. Por fin, las propias tasas de detección constituyen quizá la conclusión más importante del trabajo. Todos los análisis presentes en el trabajo serán realizados para cada uno de los dos géneros, de acuerdo con diversos estudios previos que demuestran que los géneros masculino y femenino deben tratarse de forma independiente debido a las diferencias orgánicas observadas entre ambos. Sin embargo, en lo referente a la detección de patología vocal contemplaremos también la posibilidad de trabajar con la base de datos unificada, comprobando que las tasas de acierto son también elevadas. Abstract Voice pathologies have become recently in a social problem that has reached a certain concern. Pollution in cities, smoking habits, air conditioning, etc. contributes to it. This problem is more relevant for professionals who use their voice frequently: speakers, singers, teachers, actors, telemarketers, etc. Therefore techniques that are capable of drawing conclusions from a sample of the recorded voice are of particular interest for the diagnosis as opposed to other invasive ones, involving exploration by laryngoscopes, fiber scopes or video endoscopes, which are techniques much less comfortable for patients. Voice quality analysis has come a long way in a relatively short period of time. In regard to the diagnosis of diseases, we have gone in the last fifteen years from working primarily with parameters extracted from the voice signal (both in time and frequency domains) and with scales drawn from subjective assessments by experts to produce more accurate evaluations with estimates derived from the glottal source. The importance of using the glottal source resides broadly in that this signal is linked to the state of the speaker's laryngeal structure. Unlike the voice signal (phonated speech) the glottal source, if conveniently reconstructed using adaptive lattices, may be less influenced by the vocal tract. As it is well known the vocal tract is related to the articulation of the spoken message and its influence complicates the process of voice pathology detection, unlike when using the reconstructed glottal source, where vocal tract influence has been almost completely removed. The estimates of the glottal source have been obtained through inverse filtering techniques developed by our research group. We have also deepened into the nature of the glottal signal, dissecting it and relating it to the biomechanical parameters of the vocal folds, obtaining several estimates of items such as mass, loss or elasticity of cover and body of the vocal fold, among others. From the components of the glottal source also arise the so-called biometric parameters, related to the shape of the signal, which are themselves a biometric signature of the individual. We will also work with temporal parameters related to the different stages that are observed in the glottal signal during a cycle of phonation. Finally, we will take into consideration classical perturbation and energy parameters. In short, we have now a considerable amount of glottal parameters in a multidimensional statistical basis, designed to be able to discriminate people with pathologic or dysphonic voices from those who do not show pathology. This thesis addresses several issues: first, a careful analysis of these new parameters is required, so we will offer a complete statistical description of them. We will also discuss issues such as distribution of the parameters, considering criteria such as their statistical normality. We will take special care in the analysis of the difference between distributions from healthy subjects and the distributions from pathological subjects. To reach these goals we will use different statistical techniques such as: generation of descriptive items and diagramas, tests for normality and hypothesis testing, both parametric and nonparametric. These latter techniques consider the difference between the groups of healthy subjects and groups of people with an illness related to voice. In addition, we are interested in finding statistical relationships between parameters. There are various reasons behind that: eliminate possible redundancies in the model, reduce the dimensionality of the problem and establish a criterion of relative importance in the parameters. The latter reason will be done in terms of discriminatory power for the criterion pathological/healthy. To this end, statistical techniques such as Bivariate Linear Correlation and Factor Analysis based on Principal Components will be applied. Finally, we will use the well-known technique of Discriminant Analysis classification applied to different combinations of parameters and factors to determine which of these combinations offers more promising success rates. To perform the experiments we have used a balanced and robust database, consisting of two hundred speakers, one hundred of them males and one hundred females. We have also used a well-balanced proportion where subjects with vocal pathology as well as subjects who don´t have a vocal pathology are equally represented. A computer application designed to carry out the collection of samples is also presented in this thesis. The different statistical analyses performed will allow us to determine which parameters contribute in a more decisive way in the detection of vocal pathology. Therefore, some of the analyses will even allow us to present a ranking of the parameters based on their importance for the detection of vocal pathology. On the other hand, we will also conclude that it is sometimes desirable to perform a dimensionality reduction in order to improve the detection rates. Finally, detection rates themselves are perhaps the most important conclusion of the work. All the analyses presented in this work have been performed for each of the two genders in agreement with previous studies showing that male and female genders should be treated independently, due to the observed functional differences between them. However, with regard to the detection of vocal pathology we will consider the possibility of working with the unified database, ensuring that the success rates obtained are also high.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En esta tesis se propone un nuevo modelo de carga para caracterizar los saltos de personas sobre estructuras y se estudia la influencia de las personas en las propiedades dinámicas de la estructura. En el estudio del comportamiento estructural de construcciones como gimnasios, salas de baile, estadios, auditorios o pasarelas peatonales sometidas a cargas producidas por un gran número de personas, se deben tener en cuenta las fuerzas dinámicas, lo cual implica el uso de modelos de cálculo más complejos y criterios de dimensionamiento con nuevos parámetros. Por ello, es necesario determinar a qué cargas van a estar sometidas este tipo de estructuras y cómo van a cambiar cuando se encuentren ocupadas por personas. En la primera parte del trabajo se presenta el problema de considerar las fuerzas dinámicas en el análisis de estructuras. Se indican los factores que influyeron en el interés por este tipo de estudios. Se exponen los objetivos de la tesis y se propone la metodología para conseguirlos. También en esta primera parte se describe el estado del arte. Se explican los modelos existentes de carga generada por saltos de personas y se hace un repaso de los principales autores y estudios sobre este tema. Por último se exponen algunas ideas sobre las modificaciones dinámicas que provoca la presencia de las personas en las estructuras. En la segunda parte de la tesis se explica el modelo de carga de saltos propuesta en este trabajo, donde se incluye una campaña de ensayos con saltos sobre una placa de carga. Se describen las estructuras de ensayo, un gimnasio y una losa que cubre un aljibe. Se detalla la identificación de las propiedades dinámicas de las estructuras, describiendo los ensayos correspondientes y los resultados de un Análisis Operacional Modal. Por último se presenta el modelo de elementos finitos de la estructura elegida para los ensayos. En la tercera y última parte del trabajo se comprueba la validez de los modelos de carga estudiados mediante la realización de ensayos dinámicos con personas saltando y la posterior comparación de los resultados experimentales con las simulaciones numéricas. Como último resultado se estudia la influencia de las personas en las propiedades dinámicas de la estructura. Para ello se utilizan los datos obtenidos mediante un ensayo con personas pasivas. ABSTRACT In this thesis, a new load model is proposed to characterize people jumping on structures and the influence of people in the dynamic properties of the structure is studied. In the study of the structural behavior of buildings such as gymnasiums, dance halls, stadiums, auditoriums or footbridges subjected to loads generated by crowd, dynamic forces must take into account, which involves the use of more complex calculation models and dimensioning criteria with new parameters. Therefore, it is necessary to determine these dynamic loads and how structures will change when they are occupied by people. In the first part of the work the problem of considering the dynamic forces in the analysis of structures is presented. The factors that influence on the interest in this type of study are indicated. The objectives of the thesis are presented and also the proposed methodology in order to achieve them. In this first part the state of the art is described. Existing jumping load models are explained and a review of the main authors and studies on this subject is done. Finally some ideas about the dynamic changes caused by the presence of people in the structures are exposed. In the second part of the thesis the proposed jumping load model is explained, including jump tests on a force plate. Test structures, a gym and a concrete slab are described. Dynamic properties identification of the test structures is detailed with the corresponding tests and Operational Modal Analysis results. Finally, a finite element model of the structure chosen for the tests is presented. In the third part of the work, the studied jump load models are validated by performing dynamic testing with people jumping and the subsequent comparison of experimental results with numerical simulations. As a last result, the influence of people on the dynamic properties of the structure is checked. For this purpose, obtained data from a test with passive people are used.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this paper, a model of the measuring process of sonic anemometers with more than one measuring path is presented. The main hypothesis of the work is that the time variation of the turbulent speed field during the sequence of pulses that produces a measure of the wind speed vector affects the measurement. Therefore, the previously considered frozen flow, or instantaneous averaging, condition is relaxed. This time variation, quantified by the mean Mach number of the flow and the time delay between consecutive pulses firings, in combination with both the full geometry of sensors (acoustic path location and orientation) and the incidence angles of the mean with speed vector, give rise to significant errors in the measurement of turbulence which are not considered by models based on the hypothesis of instantaneous line averaging. The additional corrections (relative to the ones proposed by instantaneous line-averaging models) are strongly dependent on the wave number component parallel to the mean wind speed, the time delay between consecutive pulses, the Mach number of the flow, the geometry of the sensor and the incidence angles of mean wind speed vector. Kaimal´s limit k W1=1/l (where k W1 is the wave number component parallel to mean wind speed and l is the path length) for the maximum wave numbers from which the sonic process affects the measurement of turbulence is here generalized as k W1=C l /l, where C l is usually lesser than unity and depends on all the new parameters taken into account by the present model.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La tesis estudia en detalle la Hunstanton Secondary School y su trascendencia. Así, se trata de analizar el conjunto de procesos que hace que esta obra sea entendida como el manifiesto construido del Nuevo Brutalismo en Inglaterra. La Escuela en Hunstanton fue la primera obra proyectada y construida por los Smithson y, si se considera que el legado que dejaron Alison y Peter fue más de carácter teórico que constructivo, ésta se ha convertido en un edificio relevante dentro de su trayectoria profesional. Además, el rigor con el que fue realizado el proyecto y la ratificación de las ideas que subyacían tras él, a pesar del extenso intervalo temporal que caracterizó su proceso constructivo, hacen que esta obra se convierta en una síntesis de la filosofía arquitectónica gestada en Inglaterra tras la guerra. Por otro lado, hay que contemplar que la sencillez del lenguaje constructivo empleado, viene dada por la compleja reiteración de los sistemas proyectuales tipo que formulan para este proyecto y el establecimiento de una gramática casi matemática. La sistematización de su vocabulario hace que, tras el análisis de su arquitectura, se encuentren nuevos parámetros capaces de documentar este momento de la historia de la arquitectura en Inglaterra. La envolvente del edificio constituye al tiempo fachada y estructura. Esta característica ha pasado inadvertida cuando, en numerosas ocasiones y durante seis décadas, se han venido publicando las fotografías de la obra terminada y los dibujos que los Smithson habían realizado en la fase de proyecto. Como consecuencia, ha proliferado el conocimiento de la arquitectura de la escuela a un nivel más superficial, mostrando el resultado formal de la misma y con ello, simplemente se ha dejado intuir la gran influencia que Mies Van der Rohe provocó en los Smithson en los primeros años de desarrollo de su labor como arquitectos. El objetivo principal de esta tesis es, por tanto, facilitar el entendimiento del espacio que propusieron los Smithson a partir del análisis pormenorizado de los distintos sistemas constructivos empleados y del equipo personal que se vio implicado en su construcción. Para ello, es necesario abordar el estudio de los materiales y mecanismos proyectuales que hicieron posible que este conjunto de espacios –interiores y exteriores- resultase definido a través de la relación entre dos variables: una evidente austeridad en la utilización de los materiales y la combinación de los distintos sistemas intervinientes a partir del recurso de la repetición. La Escuela de Hunstanton, a pesar de las inoportunas intervenciones realizadas para adaptar el centro a unas necesidades derivadas de su número de alumnos actual (el doble que en su inicio), continúa proclamando su integridad espacial. Partiendo de la hipótesis de que la arquitectura de la Secondary School en Hunstanton, representa el manifiesto construido del Nuevo Brutalismo en Inglaterra, se concluye que el resultado de su construcción fue consecuencia de numerosas influencias que, en relación con los Smithson, estuvieron presentes durante los años en que se gestó. Algo que va más allá de la conclusión de aquellos debates arquitectónicos que se habían emprendido, por escrito, en las distintas revistas locales de arquitectura. Los mecanismos compositivos empleados, también habían tenido mucho que ver con lo que los historiadores del arte habían venido aportando a la historia de la arquitectura hasta ese momento. Desde los años 40, éstos últimos habían emprendido una nueva manera de contar la historia en la que quedaba fuertemente involucrada su capacidad crítica, provocando interferencias en la mentalidad de los arquitectos de nueva generación y otorgándoles un bagaje cultural subliminalmente determinado y subjetivo. Por supuesto, en el resultado arquitectónico final, también tuvieron mucho que ver los recursos materiales de que se disponía en aquel momento. Así como la optimización de los mismos a través de la adopción de nuevas metodologías de trabajo como puede ser la organización multidisciplinar. La inclusión del ingeniero Ronald Jenkins en el equipo de trabajo de los Smithson supuso una gran oportunidad. Este ingeniero, propuso poner en práctica la entonces innovadora Teoría Plástica en la metodología de cálculo estructural y, con ello consiguió enriquecer el resultado espacial, posibilitando la percepción de una arquitectura ligera –a pesar de sus grandes dimensiones- y vinculada al paisaje donde se inserta. Pero todos estos condicionantes fueron pasados a su vez por el filtro del deseo de una regeneración social, que buscaba el modelo de la sociedad americana. El Buen Vivir que propugnaban los americanos, viajaba a Europa de la mano de la publicidad. Y, al igual que la componente publicitaria tuvo algo que ver en el proceso creativo de la arquitectura de la escuela, también lo tuvo el conocimiento del arte pop y sus recursos compositivos. ABSTRACT The thesis examines in detail the project of Hunstanton Secondary School and the architectural language’s significance used in it. Thus, it is reinterpreting the set of processes that makes this work to be understood as the “built manifesto” of the English New Brutalism. Hunstanton School’s project was the first work designed and built by the Smithsons and, considering their legacy -more theoretical than constructed-, make of this building an important work within their career. In addition, the rigor with which it was carried out the project and the ratification of the ideas lying behind him, make this work becomes a synthesis of the architectural philosophy gestated in England after the war, despite the extensive time interval that characterized its construction process. On the other hand, it must be considered the simplicity of the constructive language used in this project. It is given by the complex projective repetition of the type systems and by the establishment of a quasi-mathematical grammar. The systematization of its vocabulary makes, after a deep analysis of its architecture, to recognize new parameters able to document this moment in the history of English architecture. The building envelope is, at the same time, facade and structure. This feature has been overlooked when many photographs of the finished work and its drawings -made by the Smithsons during the design phase- has been exposed over six decades. As a result, it has proliferated the knowledge of Hunstanton Secondary Modern School’s architecture as a more superficial level, just by showing the formal outcome of its project and thus simply been left the sensation of the great influence that Mies Van der Rohe provocated in the Smithson thinking during their first years of developing his work as architects. Therefore, the main objective of this thesis is to facilitate an understanding of the Smithsons’ proposed space. This is made possible through the detailed analysis of the different systems used in it and, by understanding the knowledge of the team involved in its construction. To prove this, it is necessary to pay attention to the study of the materials and to different project mechanisms that make possible to this group of spaces -inner and outer- be defined through the game played by two variables: an apparent austerity in the use of materials and the combination of the various participant systems through the resource of repetition. Despite the untimely interventions made in order to adapt the center to the new needs (the large increase in the number of students), Hunstanton School’s building continues proclaiming its spatial integrity. Assuming that Hunstanton Secondary School’s architecture represents the manifesto of New Brutalism in England, it is concluded that the result of its construction was the result of numerous influences that, in connection with the Smithsons, were present during the years in which its project was conceived. This meaning goes beyond the conclusions made from the architectural debate that was published in many of local architectural magazines. The compositional mechanisms employed, are also linked to what art historians had contributed to the history of architecture until then. Since the 40s, historians had undertaken a new way to tell History. This new mode strongly implied its critical capacity. All this, was causing interferences in the mentality of the architects of the new generation and, giving them a subliminally determined and very subjective cultural background. Of course, the final architectural result had much to do with the material resources available at that time and, with its optimization through the adoption of new working methods as the multidisciplinary organization. The inclusion of engineer Ronald Jenkins in the team of the Smithsons was a great opportunity. He proposed to implement the new Plastic Theory in the structural calculation and thereby he got enrich the spatial results achieved, by enabling the perception of a lightweight construction, despite its large size and, linked to the landscape where it is inserted. But all these conditions were passed through the filter of social regeneration’s desire, following the American society’s model. This American model travelled to Europe in the hands of advertising. And, in the same way that publicity had something to do with the creative process of this architecture, also had a lot to do the knowledge of pop art and its compositional resources.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El desarrollo de la tecnología de la luz implicará la transformación de la vida social, cultural y económica. Tanto las consideraciones espaciales del Movimiento Moderno, como los efectos producidos por la segunda Guerra Mundial, tendrán efectos visibles en las nuevas configuraciones espaciales y en la relación simbiótica y recíproca que se dará entre ideología y tecnología. La transformación en la comprensión de la articulación espacial, asociada al desarrollo tecnológico, afectará al modo en que este espacio es experimentado y percibido. El espacio expositivo y el espacio escénico se convertirán en laboratorio práctico donde desarrollar y hacer comprensible todo el potencial ilusorio de la luz, la proyección y la imagen, como parámetros modificadores y dinamizadores del espacio arquitectónico. Esta experimentación espacial estará precedida por la investigación y creación conceptual en el mundo plástico, donde los nuevos medios mecánicos serán responsables de la construcción de una nueva mirada moderna mediatizada por los elementos técnicos. La experimentación óptica, a través de la fotografía, el cine, o el movimiento de la luz y su percepción, vinculada a nuevos modos de representación y comunicación, se convertirá en elemento fundamental en la configuración espacial. Este ámbito de experimentación se hará patente en la Escuela de la Bauhaus, de la mano de Gropius, Schlemmer o Moholy Nagy entre otros; tanto en reflexiones teóricas como en el desarrollo de proyectos expositivos, arquitectónicos o teatrales, que evolucionarán en base a la tecnología y la modificación de la relación con el espectador. El espacio expositivo y el espacio escénico se tomarán como oportunidad de investigación espacial y de análisis de los modos de percepción, convirtiéndose en lugares de experimentación básicos para el aprendizaje. El teatro se postula como punto de encuentro entre el arte y la técnica, cobrando especial importancia la intersección con otras disciplinas en la definición espacial. Las múltiples innovaciones técnicas ligadas a los nuevos fundamentos teatrales en la modificación de la relación con la escena, que se producen a principios del siglo XX, tendrán como consecuencia la transformación del espacio en un espacio dinámico, tanto física como perceptivamente, que dará lugar a nuevas concepciones espaciales, muchas de ellas utópicas. La luz, la proyección y la creación de ilusión en base a estímulos visuales y sonoros, aparecen como elementos proyectuales efímeros e inmateriales, que tendrán una gran incidencia en el espacio y su modo de ser experimentado. La implicación de la tecnología en el arte conllevará modificaciones en la visualización, así como en la configuración espacial de los espacios destinados a esta. Destacaremos como propuesta el Teatro Total de Walter Gropius, en cuyo desarrollo se recogen de algún modo las experiencias espaciales y las investigaciones desarrolladas sobre la estructura formal de la percepción realizadas por Moholy Nagy, además de los conceptos acerca del espacio escénico desarrollados en el taller de Teatro de la Bauhaus por Oskar Schlemmer. En el Teatro Total, Gropius incorporará su propia visión de cuestiones que pertenecen a la tradición de la arquitectura teatral y las innovaciones conceptuales que estaban teniendo lugar desde finales del s.XIX, tales como la participación activa del público o la superación entre escena y auditorio, estableciendo en el proyecto una nueva relación perceptual entre sala, espectáculo y espectador; aumentando la sensación de inmersión, a través del uso de la física, la óptica, y la acústica, creando una energía concéntrica capaz de extenderse en todas direcciones. El Teatro Total será uno de los primeros ejemplos en los que desde el punto de partida del proyecto, se conjuga la imagen como elemento comunicativo con la configuración espacial. Las nuevas configuraciones escénicas tendrán como premisa de desarrollo la capacidad de transformación tanto perceptiva, como física. En la segunda mitad del s.XX, la creación de centros de investigación como el CAVS (The Center for Advanced Visual Studies,1967), o el EAT (Experiments in Art and Technology, 1966), favorecerán la colaboración interdisciplinar entre arte y ciencia, implicando a empresas de carácter tecnológico, como Siemens, HP, IBM o Philips, facilitando soporte técnico y económico para el desarrollo de nuevos sistemas. Esta colaboración interdisciplinar dará lugar a una serie de intervenciones espaciales que tendrán su mayor visibilidad en algunas Exposiciones Universales. El resultado será, en la mayoría de los casos, la creación de espacios de carácter inmersivo, donde se establecerá una relación simbiótica entre espacio, imagen, sonido, y espectador. La colocación del espectador en el centro de la escena y la disposición dinámica de imagen y sonido, crearán una particular narrativa espacial no lineal, concebida para la experiencia. Desde las primeras proyecciones de cine a la pantalla múltiple de los Eames, las técnicas espaciales de difusión del sonido en Stockhausen, o los experimentos con el movimiento físico interactivo, la imagen, la luz en movimiento y el sonido, quedan inevitablemente convertidos en material arquitectónico. ABSTRACT. Light technology development would lead to a social, cultural and economic transformation. Both spatial consideration of “Modern Movement” and Second World War effects on technology, would have a visible aftereffect on spatial configuration and on the symbiotic and mutual relationship between ideology & technology. Comprehension adjustment on the articulation of space together with technology development, would impact on how space is perceived and felt. Exhibition space and scenic space would turn into a laboratory where developing and making comprehensive all illusory potential of light, projection and image. These new parameters would modify and revitalize the architectonic space. as modifying and revitalizing parameters of architectonic space. Spatial experimentation would be preceded by conceptual creation and investigation on the sculptural field, where new mechanic media would be responsible for a fresh and modern look influenced by technical elements. Optical experimentation, through photography, cinema or light movement and its perception, would turn into essential components for spatial arrangement linked to new ways of performance and communication. This experimentation sphere would be clear at The Bauhaus School, by the hand of Gropius, Schlemmer or Moholy Nag among others; in theoretical, theatrical or architectural performance’s projects, that would evolve based on technology and also based on the transformation of the relationship with the observer. Exhibition and perfor-mance areas would be taken as opportunities of spatial investigation and for the analysis of the different ways of perception, thus becoming key places for learning. Theater is postulated as a meeting point between art and technique, taking on a new significance at its intersection with other disciplines working with spatial definition too. The multiple innovation techniques linked to the new foundations for the theater regarding stage relation, would have as a consequence the regeneration of the space. Space would turn dynamic, both physically and perceptibly, bringing innovative spatial conceptions, many of them unrealistic. Light, projection and illusory creation based on sound and visual stimulus would appear as intangible and momentary design components, which would have a great impact on the space and on the way it is experienced. Implication of technology in art would bring changes on the observer as well as on the spatial configuration of the art spaces2. It would stand out as a proposal Walter Groupis Total Theater, whose development would include somehow the spatial experiments and studies about formal structure of perception accomplished by Moholy Nagy besides the concepts regarding stage space enhanced at the Bauhaus Theater Studio by Oskar Schlemmer. Within Total Theater, Groupis would incorporate his own view about traditional theatric architecture and conceptual innovations that were taking place since the end of the nineteenth century, such as active audience participation or the diffusing limits between scene and audience, establishing a new perception relationship between auditorium, performance and audience, improving the feeling of immersion through the use of physics, optics and acoustics, creating a concentric energy capable of spreading in all directions. Total Theater would be one of the first example in which, from the beginning of the Project, image is combined as a communicating element with the spatial configuration. As a premise of development, new stage arrangement would have the capacity of transformation, both perceptive and physically. During the second half or the twentieth century, the creation of investigation centers such as CAVS (Center for Advanced Visual Studies, 1967) or EAT (Experiments in Art and Technology, 1966), would help to the interdisciplinary collaboration between art and science, involving technology companies like Siemens, HP, IBM or Philips, providing technical and economic support to the development of new systems. This interdisciplinary collaboration would give room to a series of spatial interventions which would have visibility in some Universal Exhibitions. The result would be, in most cases, the creation of immersive character spaces, where a symbiotic relationship would be stablished between space, image, sound and audience. The new location of the audience in the middle of the display, together with the dynamic arrangement of sound and image would create a particular, no lineal narrative conceived to be experienced. Since the first cinema projections, the multiple screen of Eames, the spatial techniques for sound dissemination at Stockhausen or the interactive physical movement experimentation, image, motion light and sound would turn inevitably into architectural material.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

At present, photovoltaic energy is one of the most important renewable energy sources. The demand for solar panels has been continuously growing, both in the industrial electric sector and in the private sector. In both cases the analysis of the solar panel efficiency is extremely important in order to maximize the energy production. In order to have a more efficient photovoltaic system, the most accurate understanding of this system is required. However, in most of the cases the only information available in this matter is reduced, the experimental testing of the photovoltaic device being out of consideration, normally for budget reasons. Several methods, normally based on an equivalent circuit model, have been developed to extract the I-V curve of a photovoltaic device from the small amount of data provided by the manufacturer. The aim of this paper is to present a fast, easy, and accurate analytical method, developed to calculate the equivalent circuit parameters of a solar panel from the only data that manufacturers usually provide. The calculated circuit accurately reproduces the solar panel behavior, that is, the I-V curve. This fact being extremely important for practical reasons such as selecting the best solar panel in the market for a particular purpose, or maximize the energy extraction with MPPT (Maximum Peak Power Tracking) methods.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper describes new approaches to improve the local and global approximation (matching) and modeling capability of Takagi–Sugeno (T-S) fuzzy model. The main aim is obtaining high function approximation accuracy and fast convergence. The main problem encountered is that T-S identification method cannot be applied when the membership functions are overlapped by pairs. This restricts the application of the T-S method because this type of membership function has been widely used during the last 2 decades in the stability, controller design of fuzzy systems and is popular in industrial control applications. The approach developed here can be considered as a generalized version of T-S identification method with optimized performance in approximating nonlinear functions. We propose a noniterative method through weighting of parameters approach and an iterative algorithm by applying the extended Kalman filter, based on the same idea of parameters’ weighting. We show that the Kalman filter is an effective tool in the identification of T-S fuzzy model. A fuzzy controller based linear quadratic regulator is proposed in order to show the effectiveness of the estimation method developed here in control applications. An illustrative example of an inverted pendulum is chosen to evaluate the robustness and remarkable performance of the proposed method locally and globally in comparison with the original T-S model. Simulation results indicate the potential, simplicity, and generality of the algorithm. An illustrative example is chosen to evaluate the robustness. In this paper, we prove that these algorithms converge very fast, thereby making them very practical to use.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

BACKGROUND: Antiretroviral therapy has changed the natural history of human immunodeficiency virus (HIV) infection in developed countries, where it has become a chronic disease. This clinical scenario requires a new approach to simplify follow-up appointments and facilitate access to healthcare professionals. METHODOLOGY: We developed a new internet-based home care model covering the entire management of chronic HIV-infected patients. This was called Virtual Hospital. We report the results of a prospective randomised study performed over two years, comparing standard care received by HIV-infected patients with Virtual Hospital care. HIV-infected patients with access to a computer and broadband were randomised to be monitored either through Virtual Hospital (Arm I) or through standard care at the day hospital (Arm II). After one year of follow up, patients switched their care to the other arm. Virtual Hospital offered four main services: Virtual Consultations, Telepharmacy, Virtual Library and Virtual Community. A technical and clinical evaluation of Virtual Hospital was carried out. FINDINGS: Of the 83 randomised patients, 42 were monitored during the first year through Virtual Hospital (Arm I) and 41 through standard care (Arm II). Baseline characteristics of patients were similar in the two arms. The level of technical satisfaction with the virtual system was high: 85% of patients considered that Virtual Hospital improved their access to clinical data and they felt comfortable with the videoconference system. Neither clinical parameters [level of CD4+ T lymphocytes, proportion of patients with an undetectable level of viral load (p = 0.21) and compliance levels >90% (p = 0.58)] nor the evaluation of quality of life or psychological questionnaires changed significantly between the two types of care. CONCLUSIONS: Virtual Hospital is a feasible and safe tool for the multidisciplinary home care of chronic HIV patients. Telemedicine should be considered as an appropriate support service for the management of chronic HIV infection. TRIAL REGISTRATION: Clinical-Trials.gov: NCT01117675.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

To calculate the force associated with the Yarkovsky effect the temperature distribution on the surface of the asteroid should be determined; it depends on the asteroid orbit, size and shape, spin axis orientation and period, mass, density of surface layers, albedo, thermal conductivity, capacity and IR emissivity of the material. The uncertainty of many of these parameters invites to develop simplified methods to calculate the influence of the Yarkovsky effect on long term dynamics of asteroids. In this paper we present one of this method based in a special perturbation procedure developed in our group.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen El diseño clásico de circuitos de microondas se basa fundamentalmente en el uso de los parámetros s, debido a su capacidad para caracterizar de forma exitosa el comportamiento de cualquier circuito lineal. La relación existente entre los parámetros s con los sistemas de medida actuales y con las herramientas de simulación lineal han facilitado su éxito y su uso extensivo tanto en el diseño como en la caracterización de circuitos y subsistemas de microondas. Sin embargo, a pesar de la gran aceptación de los parámetros s en la comunidad de microondas, el principal inconveniente de esta formulación reside en su limitación para predecir el comportamiento de sistemas no lineales reales. En la actualidad, uno de los principales retos de los diseñadores de microondas es el desarrollo de un contexto análogo que permita integrar tanto el modelado no lineal, como los sistemas de medidas de gran señal y los entornos de simulación no lineal, con el objetivo de extender las capacidades de los parámetros s a regímenes de operación en gran señal y por tanto, obtener una infraestructura que permita tanto la caracterización como el diseño de circuitos no lineales de forma fiable y eficiente. De acuerdo a esta filosofía, en los últimos años se han desarrollado diferentes propuestas como los parámetros X, de Agilent Technologies, o el modelo de Cardiff que tratan de proporcionar esta plataforma común en el ámbito de gran señal. Dentro de este contexto, uno de los objetivos de la presente Tesis es el análisis de la viabilidad del uso de los parámetros X en el diseño y simulación de osciladores para transceptores de microondas. Otro aspecto relevante en el análisis y diseño de circuitos lineales de microondas es la disposición de métodos analíticos sencillos, basados en los parámetros s del transistor, que permitan la obtención directa y rápida de las impedancias de carga y fuente necesarias para cumplir las especificaciones de diseño requeridas en cuanto a ganancia, potencia de salida, eficiencia o adaptación de entrada y salida, así como la determinación analítica de parámetros de diseño clave como el factor de estabilidad o los contornos de ganancia de potencia. Por lo tanto, el desarrollo de una formulación de diseño analítico, basada en los parámetros X y similar a la existente en pequeña señal, permitiría su uso en aplicaciones no lineales y supone un nuevo reto que se va a afrontar en este trabajo. Por tanto, el principal objetivo de la presente Tesis consistiría en la elaboración de una metodología analítica basada en el uso de los parámetros X para el diseño de circuitos no lineales que jugaría un papel similar al que juegan los parámetros s en el diseño de circuitos lineales de microondas. Dichos métodos de diseño analíticos permitirían una mejora significativa en los actuales procedimientos de diseño disponibles en gran señal, así como una reducción considerable en el tiempo de diseño, lo que permitiría la obtención de técnicas mucho más eficientes. Abstract In linear world, classical microwave circuit design relies on the s-parameters due to its capability to successfully characterize the behavior of any linear circuit. Thus the direct use of s-parameters in measurement systems and in linear simulation analysis tools, has facilitated its extensive use and success in the design and characterization of microwave circuits and subsystems. Nevertheless, despite the great success of s-parameters in the microwave community, the main drawback of this formulation is its limitation in the behavior prediction of real non-linear systems. Nowadays, the challenge of microwave designers is the development of an analogue framework that allows to integrate non-linear modeling, large-signal measurement hardware and non-linear simulation environment in order to extend s-parameters capabilities to non-linear regimen and thus, provide the infrastructure for non-linear design and test in a reliable and efficient way. Recently, different attempts with the aim to provide this common platform have been introduced, as the Cardiff approach and the Agilent X-parameters. Hence, this Thesis aims to demonstrate the X-parameter capability to provide this non-linear design and test framework in CAD-based oscillator context. Furthermore, the classical analysis and design of linear microwave transistorbased circuits is based on the development of simple analytical approaches, involving the transistor s-parameters, that are able to quickly provide an analytical solution for the input/output transistor loading conditions as well as analytically determine fundamental parameters as the stability factor, the power gain contours or the input/ output match. Hence, the development of similar analytical design tools that are able to extend s-parameters capabilities in small-signal design to non-linear ap- v plications means a new challenge that is going to be faced in the present work. Therefore, the development of an analytical design framework, based on loadindependent X-parameters, constitutes the core of this Thesis. These analytical nonlinear design approaches would enable to significantly improve current large-signal design processes as well as dramatically decrease the required design time and thus, obtain more efficient approaches.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

An efficient approach is presented to improve the local and global approximation and modelling capability of Takagi-Sugeno (T-S) fuzzy model. The main aim is obtaining high function approximation accuracy. The main problem is that T-S identification method cannot be applied when the membership functions are overlapped by pairs. This restricts the use of the T-S method because this type of membership function has been widely used during the last two decades in the stability, controller design and are popular in industrial control applications. The approach developed here can be considered as a generalized version of T-S method with optimized performance in approximating nonlinear functions. A simple approach with few computational effort, based on the well known parameters' weighting method is suggested for tuning T-S parameters to improve the choice of the performance index and minimize it. A global fuzzy controller (FC) based Linear Quadratic Regulator (LQR) is proposed in order to show the effectiveness of the estimation method developed here in control applications. Illustrative examples of an inverted pendulum and Van der Pol system are chosen to evaluate the robustness and remarkable performance of the proposed method and the high accuracy obtained in approximating nonlinear and unstable systems locally and globally in comparison with the original T-S model. Simulation results indicate the potential, simplicity and generality of the algorithm.