110 resultados para Sistema y L.


Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo del presente Trabajo de Fin de Carrera es el estudio, diseño e implementación de una aplicación web que sirva de interfaz para una base de datos relacional llamada BaDELE3000 que trabaja actualmente con unos 3000 lexemas y sigue en fase de desarrollo. BaDELE modela conceptos y principios lingüísticos más o menos complejos, dentro del marco de la Teoría Sentido-Texto. El desarrollo de esta interfaz, permitirá a personas autorizadas, seguir nutriendo la base de datos. La memoria está formada por cinco capítulos, una bibliografía y un apéndice. Cada capítulo se divide en secciones. La sección, «Estado de la cuestión», introduce las bases linguísticas en las que se basa el modelo desarrollado, y su situación actual. En la tercera sección, «Especificación de Requisitos Software», se recogen todos los requisitos que el cliente ha transmitido al desarrollador. La siguiente sección de la memoria, «Desarrollo de la aplicación», es la más extensa. Empieza de manera teórica, describiendo los ciclos de vida en cascada y en espiral. En los siguientes apartados de la sección se explican las diferentes fases del ciclo de vida: fase de análisis, fase de diseño, centrándose en la elaboración del modelo de datos y relacional, fase de implementación, explicando las decisiones importantes en el desarrollo de la aplicación y la estructura modular de la aplicación, y por último, se trata la fase de pruebas, describiendo los tipos de pruebas ejecutados sobre el sistema y cómo se realizaron. En la quinta sección, se añaden las conclusiones obtenidas como fruto del trabajo realizado y se tratan posibles aspectos de mejora en la aplicación. En última sección, se incluye toda la bibliografía consultada y el manual de instalación y usuario de la aplicación

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cualquier sistema está constituido por una serie de dispositivos interconectados de forma tal que sean capaces de realizar unas funciones concretas. Estos bloques funcionales pueden estar constituidos por una única componente o por complejos subsistemas, dependiendo del tipo de sistema y de las interconexiones en el mismo. El estado de las componentes y la estructura del sistema determinan si un sistema está funcionando o no. En definitiva, el cuantificar la fiabilidad de un sistema requiere, generalmente, considerar la estructura del sistema y la fiabilidad de sus componentes. La herramienta software EMSI está diseñada para realizar evaluación de la fiabilidad y el rendimiento de configuraciones en Sistemas Informáticos (SSII). En este trabajo analizamos la función de distribución empírica de los datos del tiempo hasta el fallo como variables aleatorias realizando los ajustes necesarios a un determinado modelo de probabilidad.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La educación en alternancia, muy difundida en niveles no universitarios, tiene sólo unas décadas de vida en las universidades de Europa y Norteamérica. Desde 2001, varias instituciones que demandaban una educación superior para sus profesores rurales de secundaria, promueven proyectos de formación universitaria en diversos países latinoamericanos. Los resultados son muy satisfactorios. Por un lado, la Universidad trabaja en partenariado con otros actores en una colaboración poco frecuente en el ámbito académico. Por otro, se realizan innovaciones educativas que permiten a los estudiantes–adultos con experiencia– transformar problemas de acción en proyectos de investigación. Esta ponencia se centra sólo en algunos aspectos de las experiencias: la cooperativa de producción de saber entre estudiantes y profesores; el estudiante, que pasa de ser “actor” a “investigador-autor”, como centro del sistema; y la ruptura transdisciplinar de los rígidos paradigmas clsicos universitarios mediante la puesta en marcha de una verdadera formación-accióninvestigación. Estos logros requieren un cambio cultural y competencial del profesor universitario, así como una ingeniería pedagógica compleja. Algunos cambios observados en las actitudes personales y profesionales de estudiantes y profesores, permiten proponer la alternancia como una alternativa sistémica de formacióndesarrollo cercana a los postulados de Bolonia, frente a los enfoques universitarios tipo transmisivo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El peso específico de las Comunicaciones Ópticas dentro del ámbito de la Ingeniería de Telecomunicación no cesa de crecer. Sus aplicaciones, inicialmente dedicadas a las grandes lneas que enlazan las centrales de conmutación, alcanzan en la actualidad, como se ha mencionado, hasta los mismos hogares. Los progresos en este campo, con una sucesión sin tregua, no sólo se destinan a incrementar la capacidad de transmisión de los sistemas, sino a ampliar la diversidad de los procesos que sobre las señales se efectúan en el dominio óptico. Este dinamismo demanda a los profesionales del sector una revisión y actualización de sus conocimientos que les permitan resolver con soltura las cuestiones de su actividad de ingeniería. Por otra parte, durante los últimos años la importancia de las Comunicaciones Ópticas también se ha reflejado en las diferentes titulaciones de Ingenierías de Telecomunicación, cuyos planes de estudio contemplan esta materia tanto en asignaturas troncales como optativas. A menudo, las fuentes de información disponibles abordan esta disciplina con una orientación principalmente teórica. Profesionales y estudiantes de Ingeniería, pues, frente a esta materia se encuentran unos temas que tratan fenómenos físicos complejos, abundantes en conceptos abstractos y con un florido aparato matemático, pero muchas veces carentes de una visión práctica, importantísima en ingeniería, y que es, en definitiva, lo que se exige a alumnos e ingenieros: saber resolver problemas y cuestiones relacionados con las Comunicaciones Ópticas. Los sistemas de comunicaciones ópticas, y en especial aquellos que utilizan la fibra óptica como medio para la transmisión de información, como se ha dicho, están alcanzando un desarrollo importante en el campo de las telecomunicaciones. Las bondades que ofrece la fibra, de sobra conocidos y mencionados en el apartado que antecede (gran ancho de banda, inmunidad total a las perturbaciones de origen electromagnético, así como la no producción de interferencias, baja atenuación, etc.), han hecho que, hoy en día, sea uno de los campos de las llamadas tecnologías de la información y la comunicación que presente mayor interés por parte de científicos, ingenieros, operadores de telecomunicaciones y, por supuesto, usuarios. Ante esta realidad, el objetivo y justificación de la realización de este proyecto, por tanto, no es otro que el de acercar esta tecnología al futuro ingeniero de telecomunicaciones, y/o a cualquier persona con un mínimo de interés en este tema, y mostrarle de una forma práctica y visual los diferentes fenómenos que tienen lugar en la transmisión de información por medio de fibra óptica, así como los diferentes bloques y dispositivos en que se divide dicha comunicación. Para conseguir tal objetivo, el proyecto fin de carrera aquí presentado tiene como misión el desarrollo de una interfaz gráfica de usuario (GUI, del ingls Graphic User Interface) que permita a aquel que la utilice configurar de manera sencilla cada uno de los bloques en que se compone un enlace punto a punto de fibra óptica. Cada bloque en que se divide este enlace estará compuesto por varias opciones, que al elegir y configurar como se quiera, hará variar el comportamiento del sistema y presentará al usuario los diferentes fenómenos presentes en un sistema de comunicaciones ópticas, como son el ruido, la dispersión, la atenuación, etc., para una mejor comprensión e interiorización de la teoría estudiada. Por tanto, la aplicación, implementada en MATLAB, fruto de la realización de este PFC pretende servir de complemento práctico para las asignaturas dedicadas al estudio de las comunicaciones ópticas a estudiantes en un entorno amigable e intuitivo. Optical Communications in the field of Telecommunications Engineering continues to grow. Its applications, initially dedicated to large central lines that link the switching currently achieved, as mentioned, to the same household nowadays. Progress in this field, with a relentless succession, not only destined to increase the transmission capacity of the systems, but to broaden the diversity of the processes that are performed on the signals in the optical domain. This demands to professionals reviewing and updating their skills to enable them resolve issues easily. Moreover, in recent years the importance of optical communications is also reflected in the different degrees of Telecommunications Engineering, whose curriculum contemplates this area. Often, the information sources available to tackle this discipline mainly theoretical orientation. Engineering professionals and students are faced this matter are few topics discussing complex physical phenomena, and abstract concepts abundant with a flowery mathematical apparatus, but often wotput a practical, important in engineering, and that is what is required of students and engineers: knowing how to solve problems and issues related to optical communications. Optical communications systems, particularly those using optical fiber as a medium for transmission of information, as stated, are reaching a significant development in the field of telecommunications. The advantages offered by the fiber, well known and referred to in the preceding paragraph (high bandwidth, immunity to electromagnetic disturbances of origin and production of non interference, low attenuation, etc..), have made today, is one of the fields of information and communication technology that this increased interest by scientists, engineers, telecommunications operators and, of course, users. Given this reality, the purpose and justification of this project is not other than to bring this technology to the future telecommunications engineer, and / or anyone with a passing interest in this subject, and showing of a practical and various visual phenomena occurring in the transmission of information by optical fiber, as well as different blocks and devices in which said communication is divided. To achieve that objective, the final project presented here has as its mission the development of a graphical user interface (GUI) that allows the user to configure each of the blocks in which divided a point-to-point optical fiber. Each block into which this link will consist of several options to choose and configure it as you like, this will change the behavior of the system and will present to the user with the different phenomena occurring in an optical communication system, such as noise, dispersion, attenuation, etc., for better understanding and internalization of the theory studied. Therefore, the application, implemented in MATLAB, the result of the completion of the thesis is intended to complement practical subjects for the study of optical communications students in a friendly and intuitive environment.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This dissertation, whose research has been conducted at the Group of Electronic and Microelectronic Design (GDEM) within the framework of the project Power Consumption Control in Multimedia Terminals (PCCMUTE), focuses on the development of an energy estimation model for the battery-powered embedded processor board. The main objectives and contributions of the work are summarized as follows: A model is proposed to obtain the accurate energy estimation results based on the linear correlation between the performance monitoring counters (PMCs) and energy consumption. the uniqueness of the appropriate PMCs for each different system, the modeling methodology is improved to obtain stable accuracies with slight variations among multiple scenarios and to be repeatable in other systems. It includes two steps: the former, the PMC-filter, to identify the most proper set among the available PMCs of a system and the latter, the k-fold cross validation method, to avoid the bias during the model training stage. The methodology is implemented on a commercial embedded board running the 2.6.34 Linux kernel and the PAPI, a cross-platform interface to configure and access PMCs. The results show that the methodology is able to keep a good stability in different scenarios and provide robust estimation results with the average relative error being less than 5%. Este trabajo fin de máster, cuya investigación se ha desarrollado en el Grupo de Diseño Electrónico y Microelectrónico (GDEM) en el marco del proyecto PccMuTe, se centra en el desarrollo de un modelo de estimación de energía para un sistema empotrado alimentado por batería. Los objetivos principales y las contribuciones de esta tesis se resumen como sigue: Se propone un modelo para obtener estimaciones precisas del consumo de energía de un sistema empotrado. El modelo se basa en la correlación lineal entre los valores de los contadores de prestaciones y el consumo de energía. Considerando la particularidad de los contadores de prestaciones en cada sistema, la metodología de modelado se ha mejorado para obtener precisiones estables, con ligeras variaciones entre escenarios múltiples y para replicar los resultados en diferentes sistemas. La metodología incluye dos etapas: la primera, filtrado-PMC, que consiste en identificar el conjunto más apropiado de contadores de prestaciones de entre los disponibles en un sistema y la segunda, el método de validación cruzada de K iteraciones, cuyo fin es evitar los sesgos durante la fase de entrenamiento. La metodología se implementa en un sistema empotrado que ejecuta el kernel 2.6.34 de Linux y PAPI, un interfaz multiplataforma para configurar y acceder a los contadores. Los resultados muestran que esta metodología consigue una buena estabilidad en diferentes escenarios y proporciona unos resultados robustos de estimación con un error medio relativo inferior al 5%.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Bats are animals that posses high maneuvering capabilities. Their wings contain dozens of articulations that allow the animal to perform aggressive maneuvers by means of controlling the wing shape during flight (morphing-wings). There is no other flying creature in nature with this level of wing dexterity and there is biological evidence that the inertial forces produced by the wings have a key role in the attitude movements of the animal. This can inspire the design of highly articulated morphing-wing micro air vehicles (not necessarily bat-like) with a significant wing-to-body mass ratio. This thesis presents the development of a novel bat-like micro air vehicle (BaTboT) inspired by the morphing-wing mechanism of bats. BaTboT’s morphology is alike in proportion compared to its biological counterpart Cynopterus brachyotis, which provides the biological foundations for developing accurate mathematical models and methods that allow for mimicking bat flight. In nature bats can achieve an amazing level of maneuverability by combining flapping and morphing wingstrokes. Attempting to reproduce the biological wing actuation system that provides that kind of motion using an artificial counterpart requires the analysis of alternative actuation technologies more likely muscle fiber arrays instead of standard servomotor actuators. Thus, NiTinol Shape Memory Alloys (SMAs) acting as artificial biceps and triceps muscles are used for mimicking the morphing wing mechanism of the bat flight apparatus. This antagonistic configuration of SMA-muscles response to an electrical heating power signal to operate. This heating power is regulated by a proper controller that allows for accurate and fast SMA actuation. Morphing-wings will enable to change wings geometry with the unique purpose of enhancing aerodynamics performance. During the downstroke phase of the wingbeat motion both wings are fully extended aimed at increasing the area surface to properly generate lift forces. Contrary during the upstroke phase of the wingbeat motion both wings are retracted to minimize the area and thus reducing drag forces. Morphing-wings do not only improve on aerodynamics but also on the inertial forces that are key to maneuver. Thus, a modeling framework is introduced for analyzing how BaTboT should maneuver by means of changing wing morphology. This allows the definition of requirements for achieving forward and turning flight according to the kinematics of the wing modulation. Motivated by the biological fact about the influence of wing inertia on the production of body accelerations, an attitude controller is proposed. The attitude control law incorporates wing inertia information to produce desired roll (φ) and pitch (θ) acceleration commands. This novel flight control approach is aimed at incrementing net body forces (Fnet) that generate propulsion. Mimicking the way how bats take advantage of inertial and aerodynamical forces produced by the wings in order to both increase lift and maneuver is a promising way to design more efficient flapping/morphing wings MAVs. The novel wing modulation strategy and attitude control methodology proposed in this thesis provide a totally new way of controlling flying robots, that eliminates the need of appendices such as flaps and rudders, and would allow performing more efficient maneuvers, especially useful in confined spaces. As a whole, the BaTboT project consists of five major stages of development: - Study and analysis of biological bat flight data reported in specialized literature aimed at defining design and control criteria. - Formulation of mathematical models for: i) wing kinematics, ii) dynamics, iii) aerodynamics, and iv) SMA muscle-like actuation. It is aimed at modeling the effects of modulating wing inertia into the production of net body forces for maneuvering. - Bio-inspired design and fabrication of: i) skeletal structure of wings and body, ii) SMA muscle-like mechanisms, iii) the wing-membrane, and iv) electronics onboard. It is aimed at developing the bat-like platform (BaTboT) that allows for testing the methods proposed. - The flight controller: i) control of SMA-muscles (morphing-wing modulation) and ii) flight control (attitude regulation). It is aimed at formulating the proper control methods that allow for the proper modulation of BaTboT’s wings. - Experiments: it is aimed at quantifying the effects of properly wing modulation into aerodynamics and inertial production for maneuvering. It is also aimed at demonstrating and validating the hypothesis of improving flight efficiency thanks to the novel control methods presented in this thesis. This thesis introduces the challenges and methods to address these stages. Windtunnel experiments will be oriented to discuss and demonstrate how the wings can considerably affect the dynamics/aerodynamics of flight and how to take advantage of wing inertia modulation that the morphing-wings enable to properly change wings’ geometry during flapping. Resumen: Los murciélagos son mamíferos con una alta capacidad de maniobra. Sus alas están conformadas por docenas de articulaciones que permiten al animal maniobrar gracias al cambio geométrico de las alas durante el vuelo. Esta característica es conocida como (alas mórficas). En la naturaleza, no existe ningún especimen volador con semejante grado de dexteridad de vuelo, y se ha demostrado, que las fuerzas inerciales producidas por el batir de las alas juega un papel fundamental en los movimientos que orientan al animal en vuelo. Estas características pueden inspirar el diseño de un micro vehículo aéreo compuesto por alas mórficas con redundantes grados de libertad, y cuya proporción entre la masa de sus alas y el cuerpo del robot sea significativa. Esta tesis doctoral presenta el desarrollo de un novedoso robot aéreo inspirado en el mecanismo de ala mórfica de los murciélagos. El robot, llamado BaTboT, ha sido diseñado con parámetros morfolgicos muy similares a los descritos por su símil biolgico Cynopterus brachyotis. El estudio biolgico de este especimen ha permitido la definición de criterios de diseño y modelos matemáticos que representan el comportamiento del robot, con el objetivo de imitar lo mejor posible la biomecánica de vuelo de los murciélagos. La biomecánica de vuelo está definida por dos tipos de movimiento de las alas: aleteo y cambio de forma. Intentar imitar como los murciélagos cambian la forma de sus alas con un prototipo artificial, requiere el análisis de métodos alternativos de actuación que se asemejen a la biomecánica de los músculos que actúan las alas, y evitar el uso de sistemas convencionales de actuación como servomotores ó motores DC. En este sentido, las aleaciones con memoria de forma, ó por sus siglas en ingls (SMA), las cuales son fibras de NiTinol que se contraen y expanden ante estímulos térmicos, han sido usados en este proyecto como músculos artificiales que actúan como bíceps y tríceps de las alas, proporcionando la funcionalidad de ala mórfica previamente descrita. De esta manera, los músculos de SMA son mecánicamente posicionados en una configuración antagonista que permite la rotación de las articulaciones del robot. Los actuadores son accionados mediante una señal de potencia la cual es regulada por un sistema de control encargado que los músculos de SMA respondan con la precisión y velocidad deseada. Este sistema de control mórfico de las alas permitirá al robot cambiar la forma de las mismas con el único propósito de mejorar el desempeño aerodinámico. Durante la fase de bajada del aleteo, las alas deben estar extendidas para incrementar la producción de fuerzas de sustentación. Al contrario, durante el ciclo de subida del aleteo, las alas deben contraerse para minimizar el área y reducir las fuerzas de fricción aerodinámica. El control de alas mórficas no solo mejora el desempeño aerodinámico, también impacta la generación de fuerzas inerciales las cuales son esenciales para maniobrar durante el vuelo. Con el objetivo de analizar como el cambio de geometría de las alas influye en la definición de maniobras y su efecto en la producción de fuerzas netas, simulaciones y experimentos han sido llevados a cabo para medir cómo distintos patrones de modulación de las alas influyen en la producción de aceleraciones lineales y angulares. Gracias a estas mediciones, se propone un control de vuelo, ó control de actitud, el cual incorpora información inercial de las alas para la definición de referencias de aceleración angular. El objetivo de esta novedosa estrategia de control radica en el incremento de fuerzas netas para la adecuada generación de movimiento (Fnet). Imitar como los murciélagos ajustan sus alas con el propósito de incrementar las fuerzas de sustentación y mejorar la maniobra en vuelo es definitivamente un tópico de mucho interés para el diseño de robots aéros mas eficientes. La propuesta de control de vuelo definida en este trabajo de investigación podría dar paso a una nueva forma de control de vuelo de robots aéreos que no necesitan del uso de partes mecánicas tales como alerones, etc. Este control también permitiría el desarrollo de vehículos con mayor capacidad de maniobra. El desarrollo de esta investigación se centra en cinco etapas: - Estudiar y analizar el vuelo de los murciélagos con el propósito de definir criterios de diseño y control. - Formular modelos matemáticos que describan la: i) cinemática de las alas, ii) dinámica, iii) aerodinámica, y iv) actuación usando SMA. Estos modelos permiten estimar la influencia de modular las alas en la producción de fuerzas netas. - Diseño y fabricación de BaTboT: i) estructura de las alas y el cuerpo, ii) mecanismo de actuación mórfico basado en SMA, iii) membrana de las alas, y iv) electrónica abordo. - Contro de vuelo compuesto por: i) control de la SMA (modulación de las alas) y ii) regulación de maniobra (actitud). - Experimentos: están enfocados en poder cuantificar cuales son los efectos que ejercen distintos perfiles de modulación del ala en el comportamiento aerodinámico e inercial. El objetivo es demostrar y validar la hipótesis planteada al inicio de esta investigación: mejorar eficiencia de vuelo gracias al novedoso control de orientación (actitud) propuesto en este trabajo. A lo largo del desarrollo de cada una de las cinco etapas, se irán presentando los retos, problemáticas y soluciones a abordar. Los experimentos son realizados utilizando un túnel de viento con la instrumentación necesaria para llevar a cabo las mediciones de desempeño respectivas. En los resultados se discutirá y demostrará que la inercia producida por las alas juega un papel considerable en el comportamiento dinámico y aerodinámico del sistema y como poder tomar ventaja de dicha característica para regular patrones de modulación de las alas que conduzcan a mejorar la eficiencia del robot en futuros vuelos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clsica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clsica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biolgicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tesis estudia el Pabellón de los Países Nórdicos (1958-1962), uno de los ejemplos más significativos de la obra del arquitecto Sverre Fehn (1924-2009). El Pabellón es el resultado de la obtención del primer premio en el concurso de ideas restringido convocado en 1958 por un comité formado por los gobiernos de Suecia, Finlandia y Noruega, cuya finalidad era la creación de un espacio en el recinto de la Bienal de Venecia que albergara las exposiciones bianuales de estos paises. El elemento más característico de esta obra es su cubierta, un tamiz denso de dos capas de vigas de hormigón superpuestas que se interrumpe puntualmente para permitir el paso de los árboles que viven en su interior. Su espesor de dos metros bloquea los rayos de luz directa de forma que se genera un plano de iluminación difusa. Esta configuración de la cubierta resuelve los dos condicionantes principales del proyecto: la creación de un espacio expositivo flexible y la preservación de los árboles de mayor porte. Bajo el plano superior filtrante, se genera un espacio horizontal en continuidad física y sensorial con la arboleda en la que se asienta, caracterizado por la variación lumínica a lo largo del día. Los objetivos de esta tesis son contribuir a un conocimiento amplio y riguroso del Pabellón Nórdico, y explicar el singular espacio que propone. Para lograr estos objetivos, el primer paso ha consistido en la elaboración de las bases del estudio de esta obra, mediante la recopilación y selección de la documentación existente -que en gran parte permanece inédita hasta la fecha- y la aportación de nuevos planos que completen fases no documentadas: el estado construído y el estado actual de la obra. Se parte de la hipótesis de que todas las decisiones de proyecto -el vínculo con el lugar, la incorporación de las preexistencias, la respuesta al programa y la construcción- son consecuencia de la acción de la cubierta y se derivan del hecho de la filtración de la luz. En el Pabellón, la iluminación cenital y espacio horizontal en continuidad con el entorno se aunan de forma insólita. El curso de la investigación está guiado por la búsqueda de las cualidades de un espacio planteado con su lmite superior permeable -cubierta filtrante- y por el debilitamiento de algunos de sus lmites verticales. La tesis se estructura en tres capítulos principales -crónica, re-construcción y re-lectura-, que abordan la descripción, el análisis y la síntesis del Pabellón de acuerdo con la metodología de la investigación seguida. La crónica se dedica a la descripción exhaustiva de la sede nórdica desde varios puntos de vista. El objetivo de este capítulo es el de ubicar la obra en su contexto y facilitar la comprensión del conjunto de los aspectos y condicionantes que determinaron la formalización del Pabellón. El capítulo comienza con una síntesis de las circunstancias que desencadenaron la convocatoria del concurso. El apartado pormenoriza el programa propuesto por el comité nórdico y las propuestas presentadas por cada uno de los arquitectos invitados a participar en el concurso de cada país promotor: el noruego Sverre Fehn, el sueco Klas Anshelm y el finés Reima Piëtila. A continuación se explica el desarrollo y evolución del proyecto de Fehn y las fases que atraviesa la obra hasta su materialización, así como los cambios y modificaciones más relevantes que el edificio ha experimentado hasta nuestros días. Este apartado finaliza con una descripción de la sede como espacio expositivo desde su inauguración hasta la actualidad y cómo se ha ido adaptando a tal uso. La re-construcción aborda el análisis de la obra a partir de la disección de su identidad en cuatro aspectos elementales: su relación con el lugar y las preexistencias, la respuesta que el proyecto ofrece al programa planteado, las cualidades del espacio que genera la luz filtrada por la cubierta y la construcción desde los puntos de vista del proceso, el sistema y la materialidad. En estas parcelas se pretende identificar los elementos que constituyen la naturaleza, la organización espacial y la formalización del Pabellón y veremos que todos ellos están relacionados con su singular cubierta y con el fenómeno de la filtración de la luz. La re-lectura ofrece una mirada crítica del Pabellón en base a un análisis comparativo de la obra con un panorama de referencias que plantean los mismos temas arquitectónicos. En este capítulo se busca profundizar en los aspectos fundamentales del proyecto que se derivan del estudio realizado previamente, y así obtener una lectura más profunda los conceptos desarrollados por Fehn y su alcance. Uno de los temas de mayor importancia que acomete Fehn en esta obra es la interacción entre arquitectura y árbol. Se revisa la incidencia que tiene sobre el trazado de la planta la ocupación previa de árboles en el solar, así como las diferentes posturas que adopta la arquitectura ante este hecho. Se estudian algunos casos representativos de obras que establecen un vínculo de interdependencia con la fronda preexistente y la incorporan al proyecto como un estrato más del lmite. Por último, se enumeran las consecuencias de la incorporación del árbol al espacio interior y las dificultades o beneficios que surgen de esta coexistencia. El segundo gran tema que se deriva del estudio del Pabellón es la búsqueda de un espacio expositivo flexible basado en la diafanidad, la iluminación natural homogénea y la apertura física al parque. En primer lugar se analiza la planta liberada de las servidumbres de estructura, instalaciones, espacios servidores y accesos fijos como soporte de la versatilidad de uso, así como la ocupación del espacio diáfano. En segundo lugar establecemos un análisis comparativo de la configuración del filtro lumínico en otras cubiertas que, al igual que el Pabellón, también persiguen la generación de una iluminación homogénea. Por último se analiza el grado de apertura física del espacio interior al exterior y los niveles de relación que se establecen con el espacio público circundante. La relectura finaliza con el estudio del Pabellón en el contexto de los espacios expositivos de Sverre Fehn para comprender la singularidad de este edificio en el conjunto de la obra del arquitecto noruego y comprobar cómo se plantean en los casos estudiados la exhibición del objeto, el recorrido y la luz. El desarrollo de esta tesis en torno al Pabellón está motivada por la consideración de que constituye un ejemplo en el que se condensan valores fundamentales de la arquitectura. Esta obra propone un espacio antimonumental que interactúa con las personas y que está caracterizada por la manipulación de los lmites físicos, el compromiso con el programa, las preexistencias y el lugar donde se implanta. Representa un proyecto rotundo cuya estructura y sistema de relaciones se fundamenta en el plano de la realidad concreta.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The design and development of spoken interaction systems has been a thoroughly studied research scope for the last decades. The aim is to obtain systems with the ability to interact with human agents with a high degree of naturalness and efficiency, allowing them to carry out the actions they desire using speech, as it is the most natural means of communication between humans. To achieve that degree of naturalness, it is not enough to endow systems with the ability to accurately understand the user’s utterances and to properly react to them, even considering the information provided by the user in his or her previous interactions. The system has also to be aware of the evolution of the conditions under which the interaction takes place, in order to act the most coherent way as possible at each moment. Consequently, one of the most important features of the system is that it has to be context-aware. This context awareness of the system can be reflected in the modification of the behaviour of the system taking into account the current situation of the interaction. For instance, the system should decide which action it has to carry out, or the way to perform it, depending on the user that requests it, on the way that the user addresses the system, on the characteristics of the environment in which the interaction takes place, and so on. In other words, the system has to adapt its behaviour to these evolving elements of the interaction. Moreover that adaptation has to be carried out, if possible, in such a way that the user: i) does not perceive that the system has to make any additional effort, or to devote interaction time to perform tasks other than carrying out the requested actions, and ii) does not have to provide the system with any additional information to carry out the adaptation, which could imply a lesser efficiency of the interaction, since users should devote several interactions only to allow the system to become adapted. In the state-of-the-art spoken dialogue systems, researchers have proposed several disparate strategies to adapt the elements of the system to different conditions of the interaction (such as the acoustic characteristics of a specific user’s speech, the actions previously requested, and so on). Nevertheless, to our knowledge there is not any consensus on the procedures to carry out these adaptation. The approaches are to an extent unrelated from one another, in the sense that each one considers different pieces of information, and the treatment of that information is different taking into account the adaptation carried out. In this regard, the main contributions of this Thesis are the following ones: Definition of a contextualization framework. We propose a unified approach that can cover any strategy to adapt the behaviour of a dialogue system to the conditions of the interaction (i.e. the context). In our theoretical definition of the contextualization framework we consider the system’s context as all the sources of variability present at any time of the interaction, either those ones related to the environment in which the interaction takes place, or to the human agent that addresses the system at each moment. Our proposal relies on three aspects that any contextualization approach should fulfill: plasticity (i.e. the system has to be able to modify its behaviour in the most proactive way taking into account the conditions under which the interaction takes place), adaptivity (i.e. the system has also to be able to consider the most appropriate sources of information at each moment, both environmental and user- and dialogue-dependent, to effectively adapt to the conditions aforementioned), and transparency (i.e. the system has to carry out the contextualizaton-related tasks in such a way that the user neither perceives them nor has to do any effort in providing the system with any information that it needs to perform that contextualization). Additionally, we could include a generality aspect to our proposed framework: the main features of the framework should be easy to adopt in any dialogue system, regardless of the solution proposed to manage the dialogue. Once we define the theoretical basis of our contextualization framework, we propose two cases of study on its application in a spoken dialogue system. We focus on two aspects of the interaction: the contextualization of the speech recognition models, and the incorporation of user-specific information into the dialogue flow. One of the modules of a dialogue system that is more prone to be contextualized is the speech recognition system. This module makes use of several models to emit a recognition hypothesis from the user’s speech signal. Generally speaking, a recognition system considers two types of models: an acoustic one (that models each of the phonemes that the recognition system has to consider) and a linguistic one (that models the sequences of words that make sense for the system). In this work we contextualize the language model of the recognition system in such a way that it takes into account the information provided by the user in both his or her current utterance and in the previous ones. These utterances convey information useful to help the system in the recognition of the next utterance. The contextualization approach that we propose consists of a dynamic adaptation of the language model that is used by the recognition system. We carry out this adaptation by means of a linear interpolation between several models. Instead of training the best interpolation weights, we make them dependent on the conditions of the dialogue. In our approach, the system itself will obtain these weights as a function of the reliability of the different elements of information available, such as the semantic concepts extracted from the user’s utterance, the actions that he or she wants to carry out, the information provided in the previous interactions, and so on. One of the aspects more frequently addressed in Human-Computer Interaction research is the inclusion of user specific characteristics into the information structures managed by the system. The idea is to take into account the features that make each user different from the others in order to offer to each particular user different services (or the same service, but in a different way). We could consider this approach as a user-dependent contextualization of the system. In our work we propose the definition of a user model that contains all the information of each user that could be potentially useful to the system at a given moment of the interaction. In particular we will analyze the actions that each user carries out throughout his or her interaction. The objective is to determine which of these actions become the preferences of that user. We represent the specific information of each user as a feature vector. Each of the characteristics that the system will take into account has a confidence score associated. With these elements, we propose a probabilistic definition of a user preference, as the action whose likelihood of being addressed by the user is greater than the one for the rest of actions. To include the user dependent information into the dialogue flow, we modify the information structures on which the dialogue manager relies to retrieve information that could be needed to solve the actions addressed by the user. Usage preferences become another source of contextual information that will be considered by the system towards a more efficient interaction (since the new information source will help to decrease the need of the system to ask users for additional information, thus reducing the number of turns needed to carry out a specific action). To test the benefits of the contextualization framework that we propose, we carry out an evaluation of the two strategies aforementioned. We gather several performance metrics, both objective and subjective, that allow us to compare the improvements of a contextualized system against the baseline one. We will also gather the user’s opinions as regards their perceptions on the behaviour of the system, and its degree of adaptation to the specific features of each interaction. Resumen El diseño y el desarrollo de sistemas de interacción hablada ha sido objeto de profundo estudio durante las pasadas décadas. El propósito es la consecución de sistemas con la capacidad de interactuar con agentes humanos con un alto grado de eficiencia y naturalidad. De esta manera, los usuarios pueden desempeñar las tareas que deseen empleando la voz, que es el medio de comunicación más natural para los humanos. A fin de alcanzar el grado de naturalidad deseado, no basta con dotar a los sistemas de la abilidad de comprender las intervenciones de los usuarios y reaccionar a ellas de manera apropiada (teniendo en consideración, incluso, la información proporcionada en previas interacciones). Adicionalmente, el sistema ha de ser consciente de las condiciones bajo las cuales transcurre la interacción, así como de la evolución de las mismas, de tal manera que pueda actuar de la manera más coherente en cada instante de la interacción. En consecuencia, una de las características primordiales del sistema es que debe ser sensible al contexto. Esta capacidad del sistema de conocer y emplear el contexto de la interacción puede verse reflejada en la modificación de su comportamiento debida a las características actuales de la interacción. Por ejemplo, el sistema debería decidir cuál es la acción más apropiada, o la mejor manera de llevarla a término, dependiendo del usuario que la solicita, del modo en el que lo hace, etcétera. En otras palabras, el sistema ha de adaptar su comportamiento a tales elementos mutables (o dinámicos) de la interacción. Dos características adicionales son requeridas a dicha adaptación: i) el usuario no ha de percibir que el sistema dedica recursos (temporales o computacionales) a realizar tareas distintas a las que aquél le solicita, y ii) el usuario no ha de dedicar esfuerzo alguno a proporcionar al sistema información adicional para llevar a cabo la interacción. Esto último implicaría una menor eficiencia de la interacción, puesto que los usuarios deberían dedicar parte de la misma a proporcionar información al sistema para su adaptación, sin ningún beneficio inmediato. En los sistemas de diálogo hablado propuestos en la literatura, se han propuesto diferentes estrategias para llevar a cabo la adaptación de los elementos del sistema a las diferentes condiciones de la interacción (tales como las características acústicas del habla de un usuario particular, o a las acciones a las que se ha referido con anterioridad). Sin embargo, no existe una estrategia fija para proceder a dicha adaptación, sino que las mismas no suelen guardar una relación entre sí. En este sentido, cada una de ellas tiene en cuenta distintas fuentes de información, la cual es tratada de manera diferente en función de las características de la adaptación buscada. Teniendo en cuenta lo anterior, las contribuciones principales de esta Tesis son las siguientes: Definición de un marco de contextualización. Proponemos un criterio unificador que pueda cubrir cualquier estrategia de adaptación del comportamiento de un sistema de diálogo a las condiciones de la interacción (esto es, el contexto de la misma). En nuestra definición teórica del marco de contextualización consideramos el contexto del sistema como todas aquellas fuentes de variabilidad presentes en cualquier instante de la interacción, ya estén relacionadas con el entorno en el que tiene lugar la interacción, ya dependan del agente humano que se dirige al sistema en cada momento. Nuestra propuesta se basa en tres aspectos que cualquier estrategia de contextualización debería cumplir: plasticidad (es decir, el sistema ha de ser capaz de modificar su comportamiento de la manera más proactiva posible, teniendo en cuenta las condiciones en las que tiene lugar la interacción), adaptabilidad (esto es, el sistema ha de ser capaz de considerar la información oportuna en cada instante, ya dependa del entorno o del usuario, de tal manera que adecúe su comportamiento de manera eficaz a las condiciones mencionadas), y transparencia (que implica que el sistema ha de desarrollar las tareas relacionadas con la contextualización de tal manera que el usuario no perciba la manera en que dichas tareas se llevan a cabo, ni tampoco deba proporcionar al sistema con información adicional alguna). De manera adicional, incluiremos en el marco propuesto el aspecto de la generalidad: las características del marco de contextualización han de ser portables a cualquier sistema de diálogo, con independencia de la solución propuesta en los mismos para gestionar el diálogo. Una vez hemos definido las características de alto nivel de nuestro marco de contextualización, proponemos dos estrategias de aplicación del mismo a un sistema de diálogo hablado. Nos centraremos en dos aspectos de la interacción a adaptar: los modelos empleados en el reconocimiento de habla, y la incorporación de información específica de cada usuario en el flujo de diálogo. Uno de los módulos de un sistema de diálogo más susceptible de ser contextualizado es el sistema de reconocimiento de habla. Este módulo hace uso de varios modelos para generar una hipótesis de reconocimiento a partir de la señal de habla. En general, un sistema de reconocimiento emplea dos tipos de modelos: uno acústico (que modela cada uno de los fonemas considerados por el reconocedor) y uno lingüístico (que modela las secuencias de palabras que tienen sentido desde el punto de vista de la interacción). En este trabajo contextualizamos el modelo lingüístico del reconocedor de habla, de tal manera que tenga en cuenta la información proporcionada por el usuario, tanto en su intervención actual como en las previas. Estas intervenciones contienen información (semántica y/o discursiva) que puede contribuir a un mejor reconocimiento de las subsiguientes intervenciones del usuario. La estrategia de contextualización propuesta consiste en una adaptación dinámica del modelo de lenguaje empleado en el reconocedor de habla. Dicha adaptación se lleva a cabo mediante una interpolación lineal entre diferentes modelos. En lugar de entrenar los mejores pesos de interpolación, proponemos hacer los mismos dependientes de las condiciones actuales de cada diálogo. El propio sistema obtendrá estos pesos como función de la disponibilidad y relevancia de las diferentes fuentes de información disponibles, tales como los conceptos semánticos extraídos a partir de la intervención del usuario, o las acciones que el mismo desea ejecutar. Uno de los aspectos más comúnmente analizados en la investigación de la Interacción Persona-Máquina es la inclusión de las características específicas de cada usuario en las estructuras de información empleadas por el sistema. El objetivo es tener en cuenta los aspectos que diferencian a cada usuario, de tal manera que el sistema pueda ofrecer a cada uno de ellos el servicio más apropiado (o un mismo servicio, pero de la manera más adecuada a cada usuario). Podemos considerar esta estrategia como una contextualización dependiente del usuario. En este trabajo proponemos la definición de un modelo de usuario que contenga toda la información relativa a cada usuario, que pueda ser potencialmente utilizada por el sistema en un momento determinado de la interacción. En particular, analizaremos aquellas acciones que cada usuario decide ejecutar a lo largo de sus diálogos con el sistema. Nuestro objetivo es determinar cuáles de dichas acciones se convierten en las preferencias de cada usuario. La información de cada usuario quedará representada mediante un vector de características, cada una de las cuales tendrá asociado un valor de confianza. Con ambos elementos proponemos una definición probabilstica de una preferencia de uso, como aquella acción cuya verosimilitud es mayor que la del resto de acciones solicitadas por el usuario. A fin de incluir la información dependiente de usuario en el flujo de diálogo, llevamos a cabo una modificación de las estructuras de información en las que se apoya el gestor de diálogo para recuperar información necesaria para resolver ciertos diálogos. En dicha modificación las preferencias de cada usuario pasarán a ser una fuente adicional de información contextual, que será tenida en cuenta por el sistema en aras de una interacción más eficiente (puesto que la nueva fuente de información contribuirá a reducir la necesidad del sistema de solicitar al usuario información adicional, dando lugar en consecuencia a una reducción del número de intervenciones necesarias para llevar a cabo una acción determinada). Para determinar los beneficios de las aplicaciones del marco de contextualización propuesto, llevamos a cabo una evaluación de un sistema de diálogo que incluye las estrategias mencionadas. Hemos recogido diversas métricas, tanto objetivas como subjetivas, que nos permiten determinar las mejoras aportadas por un sistema contextualizado en comparación con el sistema sin contextualizar. De igual manera, hemos recogido las opiniones de los participantes en la evaluación acerca de su percepción del comportamiento del sistema, y de su capacidad de adaptación a las condiciones concretas de cada interacción.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La ciudad de Madrid ha sido y es uno de los principales polos de actividad científico-tecnolgica de España. Concentra una parte fundamental de las instituciones públicas de investigación y desarrollo. Madrid ha sido un lugar de producción y localización científico-tecnolgica de primer nivel nacional, desde los comienzos de la Ilustración en la época de Carlos III, posteriormente en el siglos XIX, en la época del "Cajalismo" de principios del XX, con la JAE (Junta de Ampliación de Estudios), con el CSIC y con el Ministerio de Ciencia e Innovación y Madrid Network. Ha existido una secuencia espacial y temporal en la localización de sedes de instituciones científico-técnicas en la ciudad a lo largo del tiempo. Con este trabajo de investigación se analiza la formación de este sistema y sus características básicas, se evala si ha formado un conjunto de áreas significativas en la ciudad que permitan hablar de un proyecto o conjunto de proyectos que han formado el sistema científico-técnico de Madrid. Finalmente se analiza cómo es en la actualidad este sistema y si está concluido o si por el contrario está pendiente de terminar y desarrollar en estos momentos a principios del siglo XXI.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente estudio analiza las intenciones de los usuarios acerca del uso de sistemas de tele-enseñanza LMS (Learning Management Systems, basándose en un modelo que integra el Modelo de Aceptación Tecnolgica (TAM, Technology Acceptance Model, la Teoría del Comportamiento Percibido (TPB, Theory of Planned Behavior) y la Teoría Unificada de la Aceptación y Uso de la Tecnología (UTAUT, Unified Theory of Acceptance and Use of Technology), tomando la edad como variable moderadora. Así, este artículo estudia la influencia de la intención conductual, la actitud hacia el uso, la facilidad de uso percibida, la utilidad percibida, la norma subjetiva y la influencia social en la intención de utilizar sistemas e-learning LMS. Como antecedentes de estos factores de influencia se plantean las características del sistema y del usuario. El resultado de la revisión teórica es un modelo unificado que ha sido validado con datos recogidos de 94 estudiantes a través de un cuestionario en lnea. Estos datos han sido analizados utilizando la técnica de mínimos cuadrados parciales, y los principales resultados confirman la relevancia predictiva del modelo para usuarios de entre 26 y 35 años y de entre 36 y 45 años.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabajo propone la aplicación de la metodología de despliegue de la función de calidad para definir los criterios de diseño de un robot deslizante para trabajar en tareas de inspección y mantenimiento en pozos petroleros. Dicho estudio analiza inicialmente el sistema y las diferentes opciones para la colocación de una estructura robótica evaluando alternativas y estudiando una estructura robótica para tal fin. Para ello se realizó una consulta por medio de encuesta a varios expertos en el tema con la finalidad de definir las características que debe tener el robot de acuerdo con los requerimientos críticos que tiene la aplicación. En este trabajo se muestran los resultados arrojados por la matriz QFD (Quality Function Deployment) cuando los datos de entrada son los proporcionados por el grupo de expertos encuestados. A partir de estos resultados es posible determinar los requisitos técnicos que debe reunir la estructura robótica que se desea diseñar.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este proyecto se enmarca dentro de la Computación Simbólica y de los fundamentos matemáticos del Diseño Geométrico Asistido por ordenador (CAGD). Se abordara uno de los problemas principales en el ámbito del CAGD y que es la manipulación de las Curvas Concoide. La importancia del avance en la manipulación de las curvas concoide radica en el papel fundamental que desempeñan en múltiples aplicaciones en la actualidad dentro de campos de diversa índole tales como la medicina, la óptica, el electromagnetismo, la construcción, etc. El objetivo principal de este proyecto es el diseño e implementación de algoritmos para el estudio, cálculo y manipulación de curvas concoides, utilizando técnicas propias del Calculo Simbólico. Esta implementación se ha programado utilizando el sistema de computación simbólica Maple. El proyecto consiste en dos partes bien diferenciadas, una parte teórica y otra más practica. La primera incluye la descripción geométrica y definición formal de curvas concoide, así como las ideas y propiedades básicas. De forma más precisa, se presenta un estudio matemático sobre el análisis de racionalidad de estas curvas, explicando los algoritmos que serán implementados en las segunda parte, y que constituye el objetivo principal de este proyecto. Para cerrar esta parte, se presenta una pequeña introducción al sistema y a la programación en Maple. Por otro lado, la segunda parte de este proyecto es totalmente original, y en ella el autor desarrolla las implementaciones en Maple de los algoritmos presentados en la parte anterior, así como la creación de un paquete Maple que las recoge. Por último, se crean las paginas de ayudas en el sistema Maple para la correcta utilización del paquete matemático anteriormente mencionado. Una vez terminada la parte de implementación, se aplican los algoritmos implementados a una colección de curvas clsicas conocidas, recogiendo los datos y resultados obtenidos en un atlas de curvas. Finalmente, se presenta una recopilación de las aplicaciones más destacadas en las que las concoides desempeñan un papel importante así como una breve reseña sobre las concoides de superficies, objeto de varios estudios en la actualidad y a los que se considera que el presente proyecto les puede resultar de gran utilidad. Abstract This project is set up in the framework of Symbolic Computation as well as in the implementation of algebraic-geometric problems that arise from Computer Aided Geometric Design (C.A.G.D.) applications. We address problems related to conchoid curves. The importance of these curves is the fundamental role that they play in current applications as medicine, optics, electromagnetism, construction, etc. The main goal of this project is to design and implement some algorithms to solve problems in studying, calculating and generating conchoid curves with symbolic computation techniques. For this purpose, we program our implementations in the symbolic system “Maple". The project consists of two differentiated parts, one more theoretical part and another part more practical. The first one includes the description of conchoid curves as well as the basic ideas about the concept and its basic properties. More precisely, we introduce in this part the mathematical analysis of the rationality of the conchoids, and we present the algorithms that will be implemented. Furthermore, the reader will be brie y introduced in Maple programming. On the other hand, the second part of this project is totally original. In this more practical part, the author presents the implemented algorithms and a Maple package that includes them, as well as their help pages. These implemented procedures will be check and illustrated with some classical and well known curves, collecting the main properties of the conchoid curves obtained in a brief atlas. Finally, a compilation of the most important applications where conchoids play a fundamental role, and a brief introduction to the conchoids of surfaces, subject of several studies today and where this project could be very useful, are presented.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabajo aborda el problema de modelizar sistemas din´amicos reales a partir del estudio de sus series temporales, usando una formulaci´on est´andar que pretende ser una abstracci´on universal de los sistemas din´amicos, independientemente de su naturaleza determinista, estoc´astica o h´ıbrida. Se parte de modelizaciones separadas de sistemas deterministas por un lado y estoc´asticos por otro, para converger finalmente en un modelo h´ıbrido que permite estudiar sistemas gen´ericos mixtos, esto es, que presentan una combinaci´on de comportamiento determinista y aleatorio. Este modelo consta de dos componentes, uno determinista consistente en una ecuaci´on en diferencias, obtenida a partir de un estudio de autocorrelaci´on, y otro estoc´astico que modeliza el error cometido por el primero. El componente estoc´astico es un generador universal de distribuciones de probabilidad, basado en un proceso compuesto de variables aleatorias, uniformemente distribuidas en un intervalo variable en el tiempo. Este generador universal es deducido en la tesis a partir de una nueva teor´ıa sobre la oferta y la demanda de un recurso gen´erico. El modelo resultante puede formularse conceptualmente como una entidad con tres elementos fundamentales: un motor generador de din´amica determinista, una fuente interna de ruido generadora de incertidumbre y una exposici´on al entorno que representa las interacciones del sistema real con el mundo exterior. En las aplicaciones estos tres elementos se ajustan en base al hist´orico de las series temporales del sistema din´amico. Una vez ajustados sus componentes, el modelo se comporta de una forma adaptativa tomando como inputs los nuevos valores de las series temporales del sistema y calculando predicciones sobre su comportamiento futuro. Cada predicci´on se presenta como un intervalo dentro del cual cualquier valor es equipro- bable, teniendo probabilidad nula cualquier valor externo al intervalo. De esta forma el modelo computa el comportamiento futuro y su nivel de incertidumbre en base al estado actual del sistema. Se ha aplicado el modelo en esta tesis a sistemas muy diferentes mostrando ser muy flexible para afrontar el estudio de campos de naturaleza dispar. El intercambio de tr´afico telef´onico entre operadores de telefon´ıa, la evoluci´on de mercados financieros y el flujo de informaci´on entre servidores de Internet son estudiados en profundidad en la tesis. Todos estos sistemas son modelizados de forma exitosa con un mismo lenguaje, a pesar de tratarse de sistemas f´ısicos totalmente distintos. El estudio de las redes de telefon´ıa muestra que los patrones de tr´afico telef´onico presentan una fuerte pseudo-periodicidad semanal contaminada con una gran cantidad de ruido, sobre todo en el caso de llamadas internacionales. El estudio de los mercados financieros muestra por su parte que la naturaleza fundamental de ´estos es aleatoria con un rango de comportamiento relativamente acotado. Una parte de la tesis se dedica a explicar algunas de las manifestaciones emp´ıricas m´as importantes en los mercados financieros como son los “fat tails”, “power laws” y “volatility clustering”. Por ´ultimo se demuestra que la comunicaci´on entre servidores de Internet tiene, al igual que los mercados financieros, una componente subyacente totalmente estoc´astica pero de comportamiento bastante “d´ocil, siendo esta docilidad m´as acusada a medida que aumenta la distancia entre servidores. Dos aspectos son destacables en el modelo, su adaptabilidad y su universalidad. El primero es debido a que, una vez ajustados los par´ametros generales, el modelo se “alimenta” de los valores observables del sistema y es capaz de calcular con ellos comportamientos futuros. A pesar de tener unos par´ametros fijos, la variabilidad en los observables que sirven de input al modelo llevan a una gran riqueza de ouputs posibles. El segundo aspecto se debe a la formulaci´on gen´erica del modelo h´ıbrido y a que sus par´ametros se ajustan en base a manifestaciones externas del sistema en estudio, y no en base a sus caracter´ısticas f´ısicas. Estos factores hacen que el modelo pueda utilizarse en gran variedad de campos. Por ´ultimo, la tesis propone en su parte final otros campos donde se han obtenido ´exitos preliminares muy prometedores como son la modelizaci´on del riesgo financiero, los algoritmos de routing en redes de telecomunicaci´on y el cambio clim´atico. Abstract This work faces the problem of modeling dynamical systems based on the study of its time series, by using a standard language that aims to be an universal abstraction of dynamical systems, irrespective of their deterministic, stochastic or hybrid nature. Deterministic and stochastic models are developed separately to be merged subsequently into a hybrid model, which allows the study of generic systems, that is to say, those having both deterministic and random behavior. This model is a combination of two different components. One of them is deterministic and consisting in an equation in differences derived from an auto-correlation study and the other is stochastic and models the errors made by the deterministic one. The stochastic component is an universal generator of probability distributions based on a process consisting in random variables distributed uniformly within an interval varying in time. This universal generator is derived in the thesis from a new theory of offer and demand for a generic resource. The resulting model can be visualized as an entity with three fundamental elements: an engine generating deterministic dynamics, an internal source of noise generating uncertainty and an exposure to the environment which depicts the interactions between the real system and the external world. In the applications these three elements are adjusted to the history of the time series from the dynamical system. Once its components have been adjusted, the model behaves in an adaptive way by using the new time series values from the system as inputs and calculating predictions about its future behavior. Every prediction is provided as an interval, where any inner value is equally probable while all outer ones have null probability. So, the model computes the future behavior and its level of uncertainty based on the current state of the system. The model is applied to quite different systems in this thesis, showing to be very flexible when facing the study of fields with diverse nature. The exchange of traffic between telephony operators, the evolution of financial markets and the flow of information between servers on the Internet are deeply studied in this thesis. All these systems are successfully modeled by using the same “language”, in spite the fact that they are systems physically radically different. The study of telephony networks shows that the traffic patterns are strongly weekly pseudo-periodic but mixed with a great amount of noise, specially in the case of international calls. It is proved that the underlying nature of financial markets is random with a moderate range of variability. A part of this thesis is devoted to explain some of the most important empirical observations in financial markets, such as “fat tails”, “power laws” and “volatility clustering”. Finally it is proved that the communication between two servers on the Internet has, as in the case of financial markets, an underlaying random dynamics but with a narrow range of variability, being this lack of variability more marked as the distance between servers is increased. Two aspects of the model stand out as being the most important: its adaptability and its universality. The first one is due to the fact that once the general parameters have been adjusted , the model is “fed” on the observable manifestations of the system in order to calculate its future behavior. Despite the fact that the model has fixed parameters the variability in the observable manifestations of the system, which are used as inputs of the model, lead to a great variability in the possible outputs. The second aspect is due to the general language” used in the formulation of the hybrid model and to the fact that its parameters are adjusted based on external manifestations of the system under study instead of its physical characteristics. These factors made the model suitable to be used in great variety of fields. Lastly, this thesis proposes other fields in which preliminary and promising results have been obtained, such as the modeling of financial risk, the development of routing algorithms for telecommunication networks and the assessment of climate change.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The modal analysis of a structural system consists on computing its vibrational modes. The experimental way to estimate these modes requires to excite the system with a measured or known input and then to measure the system output at different points using sensors. Finally, system inputs and outputs are used to compute the modes of vibration. When the system refers to large structures like buildings or bridges, the tests have to be performed in situ, so it is not possible to measure system inputs such as wind, traffic, . . .Even if a known input is applied, the procedure is usually difficult and expensive, and there are still uncontrolled disturbances acting at the time of the test. These facts led to the idea of computing the modes of vibration using only the measured vibrations and regardless of the inputs that originated them, whether they are ambient vibrations (wind, earthquakes, . . . ) or operational loads (traffic, human loading, . . . ). This procedure is usually called Operational Modal Analysis (OMA), and in general consists on to fit a mathematical model to the measured data assuming the unobserved excitations are realizations of a stationary stochastic process (usually white noise processes). Then, the modes of vibration are computed from the estimated model. The first issue investigated in this thesis is the performance of the Expectation- Maximization (EM) algorithm for the maximum likelihood estimation of the state space model in the field of OMA. The algorithm is described in detail and it is analysed how to apply it to vibration data. After that, it is compared to another well known method, the Stochastic Subspace Identification algorithm. The maximum likelihood estimate enjoys some optimal properties from a statistical point of view what makes it very attractive in practice, but the most remarkable property of the EM algorithm is that it can be used to address a wide range of situations in OMA. In this work, three additional state space models are proposed and estimated using the EM algorithm: • The first model is proposed to estimate the modes of vibration when several tests are performed in the same structural system. Instead of analyse record by record and then compute averages, the EM algorithm is extended for the joint estimation of the proposed state space model using all the available data. • The second state space model is used to estimate the modes of vibration when the number of available sensors is lower than the number of points to be tested. In these cases it is usual to perform several tests changing the position of the sensors from one test to the following (multiple setups of sensors). Here, the proposed state space model and the EM algorithm are used to estimate the modal parameters taking into account the data of all setups. • And last, a state space model is proposed to estimate the modes of vibration in the presence of unmeasured inputs that cannot be modelled as white noise processes. In these cases, the frequency components of the inputs cannot be separated from the eigenfrequencies of the system, and spurious modes are obtained in the identification process. The idea is to measure the response of the structure corresponding to different inputs; then, it is assumed that the parameters common to all the data correspond to the structure (modes of vibration), and the parameters found in a specific test correspond to the input in that test. The problem is solved using the proposed state space model and the EM algorithm. Resumen El análisis modal de un sistema estructural consiste en calcular sus modos de vibración. Para estimar estos modos experimentalmente es preciso excitar el sistema con entradas conocidas y registrar las salidas del sistema en diferentes puntos por medio de sensores. Finalmente, los modos de vibración se calculan utilizando las entradas y salidas registradas. Cuando el sistema es una gran estructura como un puente o un edificio, los experimentos tienen que realizarse in situ, por lo que no es posible registrar entradas al sistema tales como viento, tráfico, . . . Incluso si se aplica una entrada conocida, el procedimiento suele ser complicado y caro, y todavía están presentes perturbaciones no controladas que excitan el sistema durante el test. Estos hechos han llevado a la idea de calcular los modos de vibración utilizando sólo las vibraciones registradas en la estructura y sin tener en cuenta las cargas que las originan, ya sean cargas ambientales (viento, terremotos, . . . ) o cargas de explotación (tráfico, cargas humanas, . . . ). Este procedimiento se conoce en la literatura especializada como Análisis Modal Operacional, y en general consiste en ajustar un modelo matemático a los datos registrados adoptando la hipótesis de que las excitaciones no conocidas son realizaciones de un proceso estocástico estacionario (generalmente ruido blanco). Posteriormente, los modos de vibración se calculan a partir del modelo estimado. El primer problema que se ha investigado en esta tesis es la utilización de máxima verosimilitud y el algoritmo EM (Expectation-Maximization) para la estimación del modelo espacio de los estados en el ámbito del Análisis Modal Operacional. El algoritmo se describe en detalle y también se analiza como aplicarlo cuando se dispone de datos de vibraciones de una estructura. A continuación se compara con otro método muy conocido, el método de los Subespacios. Los estimadores máximo verosímiles presentan una serie de propiedades que los hacen óptimos desde un punto de vista estadístico, pero la propiedad más destacable del algoritmo EM es que puede utilizarse para resolver un amplio abanico de situaciones que se presentan en el Análisis Modal Operacional. En este trabajo se proponen y estiman tres modelos en el espacio de los estados: • El primer modelo se utiliza para estimar los modos de vibración cuando se dispone de datos correspondientes a varios experimentos realizados en la misma estructura. En lugar de analizar registro a registro y calcular promedios, se utiliza algoritmo EM para la estimación conjunta del modelo propuesto utilizando todos los datos disponibles. • El segundo modelo en el espacio de los estados propuesto se utiliza para estimar los modos de vibración cuando el número de sensores disponibles es menor que vi Resumen el número de puntos que se quieren analizar en la estructura. En estos casos es usual realizar varios ensayos cambiando la posición de los sensores de un ensayo a otro (múltiples configuraciones de sensores). En este trabajo se utiliza el algoritmo EM para estimar los parámetros modales teniendo en cuenta los datos de todas las configuraciones. • Por último, se propone otro modelo en el espacio de los estados para estimar los modos de vibración en la presencia de entradas al sistema que no pueden modelarse como procesos estocásticos de ruido blanco. En estos casos, las frecuencias de las entradas no se pueden separar de las frecuencias del sistema y se obtienen modos espurios en la fase de identificación. La idea es registrar la respuesta de la estructura correspondiente a diferentes entradas; entonces se adopta la hipótesis de que los parámetros comunes a todos los registros corresponden a la estructura (modos de vibración), y los parámetros encontrados en un registro específico corresponden a la entrada en dicho ensayo. El problema se resuelve utilizando el modelo propuesto y el algoritmo EM.