1000 resultados para ANALISIS DE SERIES DE TIEMPO - MODELOS ECONOMETRICOS
Resumo:
La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.
Resumo:
Existen diversos métodos y manuales que establecen diferentes modelos para estudiar la circulación, la capacidad de la vía, etc. El Manual de Capacidad 2000 propone la medida de los niveles de servicio para carreteras de dos carriles a partir de la velocidad media de recorrido y del porcentaje de tiempo siguiendo, representando la función intensidad-velocidad mediante rectas de pendiente constante. Se ha comprobado experimentalmente que la aplicación de la relación propuesta en la última edición del Manual de Capacidad en las carreteras convencionales reales de dos carriles en la Comunidad de Madrid se aleja de la realidad y con ella la interpretación que se debe hacer sobre los niveles de servicio en este tipo de carreteras. El resultado de una investigación realizada en carreteras de la Comunidad de Madrid, y en colaboración con la Escuela de Caminos, Canales y Puertos de la Universidad Politécnica de Madrid, ha sido el planteamiento de un modelo macroscópico que reproduce la función intensidad-velocidad en carreteras convencionales, con una metodología que puede ser reproducible, de manera sencilla, para obtener leyes específicas en otras carreteras concretas
Resumo:
La complejidad en los proyectos y la complejidad en dirección de proyectos son conceptos cuyo interés va en aumento. En la primera parte de esta investigación se conceptualiza la complejidad en dirección de proyectos desde diferentes dimensiones y se caracteriza la evolución del término hasta la fecha. En una segunda parte se abordan las herramientas existentes para el análisis y evaluación de la complejidad en dirección de proyectos. La metodología desarrollada consiste en una investigación teórica, con la finalidad de conocer el estado del arte del tema en cuestión y su evolución en el tiempo. Tras el análisis realizado y la evolución de los estándares y tendencias internacionales, en esta investigación se propone la complejidad social, como una tercera dimensión de la dirección de proyectos complejos.
Resumo:
El programa de Ingeniería Civil en la Universidad Autónoma de Coahuila es el resultado de un proceso de Acreditación y Revisión constante, el cual da respuesta a la creciente demanda social de Gestión de Proyectos, aun cuando en la práctica es severamente cuestionada por la poca aplicación de los escenarios de modelación; por lo que, la investigación que se desarrolla por parte de la Cátedra de Proyectos nos permite fomentar el estudio de las Variables de Riesgo con el fin de establecer de manera eficiente un marco de referencia que permita incrementar el conocimiento de esta herramienta como material didáctico en la materia de Gestión de Proyectos. De esta manera, en la investigación se exponen las técnicas de identificación, los modelos de análisis y las herramientas de modelación que desarrollen las habilidades y actitudes en la toma de decisión, atendiendo a los criterios establecidos por los PMC, DIP, PMP; esto, con el fin de apoyar los trabajos de Gestión de Proyectos en escenarios críticos
Resumo:
Esta Tesis constituye una contribución a los Modelos y Metodologías para la Estimación de la Calidad Percibida por los Usuarios, o Calidad de Experiencia (QoE), a partir de Parámetros de Calidad y/o Rendimiento de Red y/o Servicio (QoS) en Servicios Multimedia, y específicamente en servicios Triple-Play (3P): servicios de Televisión (TV), Telefonía y Datos ofrecidos por un mismo operador como un paquete único. En particular, se centra en los servicios Triple-Play convergentes (desplegados sobre una Red de Transporte común basada en IP, gestionada por un único operador como un Sistema Autónomo (SA)), y la relación entre la Calidad Percibida por los usuarios de dichos servicios y los parámetros de rendimiento de la Red de Transporte IP subyacente. Específicamente, contribuye a la estimación ‘en línea’ (es decir, durante la prestación del servicio, en tiempo real o casi-real) de dicha calidad. La calidad de experiencia de los usuarios es un factor determinante para el éxito o fracaso de estos servicios, y su adecuada gestión resulta por tanto un elemento crucial para el despliegue exitoso de los mismos. La calidad de experiencia resulta fácil de entender, pero compleja de implementar en sistemas reales, debido principalmente a la dificultad de su modelado, evaluación, y traducción en términos de parámetros de calidad de servicio. Mientras que la calidad de servicio puede medirse, monitorizarse y controlarse fácilmente, la calidad de experiencia es todavía muy difícil de gestionar. Una metodología completa de gestión de la calidad de experiencia debe incluir al menos: monitorización de la experiencia de los usuarios durante el consumo del servicio; adaptación de la provisión de contenidos a las condiciones variables del contexto; predicción del nivel de degradación potencial de la calidad de experiencia; y recuperación de la degradación debida a cambios en el sistema. Para conseguir un control completo de la experiencia de los usuarios finales, todas estas tareas deben ser realizadas durante la prestación del servicio y de forma coordinada. Por lo tanto, la capacidad de medir, estimar y monitorizar la calidad percibida en tiempo casi-real, y relacionarla con las condiciones de servicio de la red, resulta crítica para los proveedores de este tipo de servicios, especialmente en el caso de los más exigentes, tales como la difusión de Televisión sobre IP (IPTV). Para ello se ha seleccionado un modelo ya existente, de tipo matricial, para la estimación de la Calidad Global en servicios complejos a partir de los parámetros de funcionamiento interno de los agentes que proporcionan los servicios. Este modelo, definido en términos de servicios y sus componentes, percepciones de los usuarios, capacidades de los agentes, indicadores de rendimiento y funciones de evaluación, permite estimar la calidad global de un conjunto de servicios convergentes, tal como la perciben uno o más grupos de usuarios. Esto se consigue combinando los resultados de múltiples modelos parciales, tales que cada uno de ellos proporciona la valoración de la calidad percibida para uno de los servicios componentes, obtenida a partir de un conjunto de parámetros de rendimiento y/o Calidad de Servicio de la red de transporte IP convergente. El modelo se basa en la evaluación de las percepciones de los usuarios a partir de Factores de Valoración, calculados a partir de Indicadores de Rendimiento, que se derivan a su vez de Parámetros de Funcionamiento Interno correspondientes a las capacidades de los distintos agentes que intervienen en la prestación de los servicios. El trabajo original incluye la aplicación del modelo a un servicio 3P (datos+voz+vídeo). En este trabajo, sin embargo, el servicio de vídeo (Vídeo bajo Demanda, VoD) se considera poco importante y es finalmente ignorado. En el caso de los usuarios residenciales, el servicio de voz (Voz sobre IP, VoIP) se considera asimismo poco importante y es también ignorado, por lo que el servicio global se reduce finalmente a los servicios de datos (Acceso a Internet y juegos interactivos). Esta simplificación era razonable en su momento, pero la evolución del mercado de servicios convergentes ha hecho que en la actualidad las razones que la justificaban no sean ya aplicables. En esta Tesis, por lo tanto, hemos considerado un servicio ‘Triple-Play’ completo, incluyendo servicios de datos, voz y vídeo. Partiendo de dicho modelo, se ha procedido a actualizar los servicios considerados, eliminando los no relevantes e incluyendo otros no considerados, así como a incluir nuevos elementos (percepciones) para la estimación de la calidad de los servicios; actualizar, extender y/o mejorar los modelos de estimación de los servicios ya incluidos; incluir modelos de estimación para los nuevos servicios y elementos añadidos; desarrollar nuevos modelos de estimación para aquellos servicios o elementos para los que no existen modelos adecuados; y por último, extender, actualizar y/o mejorar los modelos para la estimación de la calidad global. Con todo ello se avanza apreciablemente en la modelización y estimación de la Calidad de Experiencia (QoE) en Servicios Multimedia a partir de Parámetros de Calidad de Servicio (QoS) y/o Rendimiento de la Red, y específicamente en la estimación ‘en línea’, en tiempo casi-real, de dicha calidad en servicios Triple-Play convergentes. La presente Tesis Doctoral se enmarca en la línea de investigación sobre Calidad de Servicio del grupo de Redes y Servicios de Telecomunicación e Internet, dentro del Departamento de Ingeniería de Sistemas Telemáticos (DIT) de la Universidad Politécnica de Madrid (UPM).
Resumo:
En regiones en las que no se dispone de un modelo hidrológico correctamente calibrado para estimar la escorrentía, se puede recurrir a la utilización de la escorrentía directa simulada por los modelos climáticos o a la escorrentía calculada a partir de fórmulas climatológicas que emplean variables climáticas básicas como la precipitación, temperatura y radiación solar, simuladas por los modelos regionales de clima (MRC). El presente trabajo compara el comportamiento de la escorrentía directa obtenida por 10 simulaciones de los MRC del proyecto europeo PRUDENCE y la escorrentía media anual calculada a partir de la aplicación de cinco fórmulas climatológicas (Schreiber, Ol’dekop, Budyko, Turc-Pike, Zhang et al.) basadas en el índice de aridez, definido por la relación entre la evapotranspiración potencial y la precipitación. Series temporales mensuales de escorrentía, precipitación, temperatura y radiación solar son generadas a partir de las simulaciones de los MRC en 338 cuencas de España que cubren la totalidad del territorio peninsular, bajo condiciones de clima actual (periodo 1961-1990). La evapotranspiración potencial se obtiene usando el método presentado por Hargreaves. Estas formas funcionales estiman la relación entre la evapotranspiración actual y la precipitación y a través de un balance hídrico se calculan los valores de escorrentía anual. El comportamiento general de las variables climáticas simuladas por los MRC se caracteriza por presentar menor sesgo para precipitación y temperatura que para escorrentía. Empleando estadísticos de comparación se analiza la capacidad que tiene la escorrentía directa y la escorrentía anual calculada a partir de las fórmulas climáticas para reproducir los valores observados de escorrentía natural estimada por el modelo hidrológico distribuido SIMPA en las cuencas españolas. En total se generaron 10 series mensuales de escorrentía directa y 50 series de escorrentía anual basadas en el índice de aridez (cada fórmula climática aplicada a las 10 simulaciones de los MRC). Los resultados muestran que la fórmula de Schreiber produce la mejor aproximación a los valores observados y por tanto minimiza el sesgo predominante en la variable escorrentía. Adicionalmente, estos resultados se validan con las capas de escorrentía media anual de alta resolución proporcionada por la UNH/GRDC (University of New Hampshire/Global Runoff Data Centre) que preservan la exactitud de las medidas de las aportaciones observadas en las principales estaciones hidrológicas de todo el mundo, y que en la actualidad es el “mejor estimador” de la escorrentía terrestre sobre grandes extensiones. En este caso, los resultados muestran también que la fórmula de Schreiber estima mejor los valores de escorrentía anual que la escorrentía directa simulada por MRC.
Resumo:
La presente Tesis Doctoral fue desarrollada en el marco del proyecto Consolider-Ingenio 2010 CSD2008-00068 (TeraSense), financiado por el Ministerio de Ciencia e Innovación de España. Dentro este contexto, el grupo GTIC-Radiocomunicaciones de la Universidad Politécnica de Madrid (UPM), ha llevado a cabo una serie de estudios, los cuales se centran específicamente en propagación atmosférica bajo condiciones de ausencia de lluvia en 100 y 300 GHz. Durante la primera etapa de esta investigación se ha llevado a cabo la caracterización y estimación de la atenuación total atmosférica y temperatura de brillo en ambas frecuencias, usando para ello perfiles atmosféricos. Con este propósito, se han obtenido datos de sondeos realizados en la estación de Madrid/Barajas, correspondientes a un periodo de 5 años. A partir de esta base de datos, así como de modelos de estimación, y asumiendo la validez de la aproximación de Rayleigh hasta 300 GHz, se han calculado las distribuciones acumuladas anuales de gases, nubes, y atenuación total, además de los correspondientes niveles de temperatura de brillo. Los principales resultados muestran que, a medida que aumenta la frecuencia, el vapor de agua tiene una fuerte influencia negativa, la cual es claramente dominante en 300 GHz. Así mismo, los estadísticos anuales de temperatura de brillo en 100 GHz han mostrado que la estimación de la atenuación total, a partir de medidas radiométricas, podría realizarse durante la mayor parte del tiempo, salvo en condiciones de lluvia. En 300 GHz, esta estimación sería difícil de realizar a partir de esta técnica, siendo posible únicamente durante periodos caracterizados por bajas concentraciones de vapor de agua en la atmósfera y ausencia de precipitaciones. Se ha introducido en esta investigación un método para identificar la presencia de condiciones de lluvia durante la realización de un sondeo, con el objetivo de descartar estos eventos de los estadísticos anuales de atenuación en ambas frecuencias. Este tipo de escenarios son generalmente evitados durante la realización de medidas radiométricas o cálculos basados en datos de sondeos. El procedimiento de detección se basa en el análisis de un conjunto de parámetros, algunos de ellos extraídos de observaciones sinópticas de superficie, además de la definición de un umbral de contenido integrado de agua líquida, ILWC. El funcionamiento del método ha sido evaluado bajo diferentes condiciones climatológicas, correspondientes a tres estaciones diferentes en España, donde se verificó también la existencia de datos pluviométricos. El uso del método ha demostrado que, en ausencia de registros de intensidad de lluvia, puede ser una herramienta útil de detección, cuyo comportamiento es conservador, debido a que el número de eventos que descarta es siempre mayor que el observado por un pluviómetro. Los resultados que se obtienen son buenos cuando se comparan las distribuciones acumuladas anuales de atenuación total obtenidas excluyendo los eventos detectados por el método y por los registros pluviométricos. En colaboración con el Grupo de Microondas y Radar de la UPM, se ha realizado una campaña de medidas radiométricas en 99 GHz, entre el 11 y el 24 de abril de 2012, con el fin de estimar la atenuación total a lo largo de un trayecto inclinado. Las series temporales obtenidas son consistentes con lo que se esperaba de este tipo de medidas: un nivel de referencia de baja atenuación en ausencia de nubes o lluvia, y aparentemente una buena compensación de las variaciones en la ganancia del receptor gracias a un procedimiento manual de calibraciones con carga caliente. Así mismo, se han observado claramente los efectos de la presencia de nubes sobre los resultados, hecho que confirma la mayor sensibilidad de las medidas en esta frecuencia a la presencia de agua líquida, en comparación con medidas simultáneas realizadas por un radiómetro en 19.7 GHz. Finalmente, se han observado un buen nivel de correspondencia entre los valores de atenuación estimados por el radiómetro en 99 GHz y aquellos estimados mediante sondeos meteorológicos, lo cual constituye una conclusión valiosa de cara a futuras campañas de medidas de mayor duración.
Resumo:
Este trabajo recoge una revisión de los modelos para la simulación dinámica del crecimiento y desarrollo de los pastos y su utilización con animales en pastoreo. Los modelos son herramientas para la toma de decisiones en la explotación ganadera y para la investigación. Un modelo dinámico es la representación matemática de un sistema pastoral que evoluciona en el tiempo forzado por un conjunto de variables conductoras. La simulación es el proceso de ejecución de un modelo por el cual se obtiene unos resultados sobre el estado de cada componente. Los principales componentes de los modelos son: el clima o meteorología, el suelo, la vegetación, los animales y el gestor o tomador de decisiones. En este artículo se presentan los principales procesos modelados sobre el crecimiento y desarrollo de la vegetación herbácea y leñosa, y también algunos referentes a la ingesta de los animales. El desarrollo de modelos es un proceso iterativo nunca concluso, este tipo de modelos trata de explicar el comportamiento del sistema y por tanto parte de la variabilidad que presenta no llega a ser explicada por el modelo al ser una simplificación del sistema real. Estos modelos de simulación han ido evolucionando desde simples relaciones matemáticas a complejos sistemas de ecuaciones diferenciales que tiene una representación sobre el territorio, llegándose a los modelos multi-agente, donde confluyen en el mismo espacio diferentes tomadores de decisiones, tipos de vegetación y animales. Los modelos son posibles por la existencia de un mejor conocimiento y descripción de los componentes y procesos que aparecen en los sistemas agrosilvopastorales.
Resumo:
It is easy to get frustrated at spoken conversational agents (SCAs), perhaps because they seem to be callous. By and large, the quality of human-computer interaction is affected due to the inability of the SCAs to recognise and adapt to user emotional state. Now with the mass appeal of artificially-mediated communication, there has been an increasing need for SCAs to be socially and emotionally intelligent, that is, to infer and adapt to their human interlocutors’ emotions on the fly, in order to ascertain an affective, empathetic and naturalistic interaction. An enhanced quality of interaction would reduce users’ frustrations and consequently increase their satisfactions. These reasons have motivated the development of SCAs towards including socio-emotional elements, turning them into affective and socially-sensitive interfaces. One barrier to the creation of such interfaces has been the lack of methods for modelling emotions in a task-independent environment. Most emotion models for spoken dialog systems are task-dependent and thus cannot be used “as-is” in different applications. This Thesis focuses on improving this, in which it concerns computational modeling of emotion, personality and their interrelationship for task-independent autonomous SCAs. The generation of emotion is driven by needs, inspired by human’s motivational systems. The work in this Thesis is organised in three stages, each one with its own contribution. The first stage involved defining, integrating and quantifying the psychological-based motivational and emotional models sourced from. Later these were transformed into a computational model by implementing them into software entities. The computational model was then incorporated and put to test with an existing SCA host, a HiFi-control agent. The second stage concerned automatic prediction of affect, which has been the main challenge towards the greater aim of infusing social intelligence into the HiFi agent. In recent years, studies on affect detection from voice have moved on to using realistic, non-acted data, which is subtler. However, it is more challenging to perceive subtler emotions and this is demonstrated in tasks such as labelling and machine prediction. In this stage, we attempted to address part of this challenge by considering the roles of user satisfaction ratings and conversational/dialog features as the respective target and predictors in discriminating contentment and frustration, two types of emotions that are known to be prevalent within spoken human-computer interaction. The final stage concerned the evaluation of the emotional model through the HiFi agent. A series of user studies with 70 subjects were conducted in a real-time environment, each in a different phase and with its own conditions. All the studies involved the comparisons between the baseline non-modified and the modified agent. The findings have gone some way towards enhancing our understanding of the utility of emotion in spoken dialog systems in several ways; first, an SCA should not express its emotions blindly, albeit positive. Rather, it should adapt its emotions to user states. Second, low performance in an SCA may be compensated by the exploitation of emotion. Third, the expression of emotion through the exploitation of prosody could better improve users’ perceptions of an SCA compared to exploiting emotions through just lexical contents. Taken together, these findings not only support the success of the emotional model, but also provide substantial evidences with respect to the benefits of adding emotion in an SCA, especially in mitigating users’ frustrations and ultimately improving their satisfactions. Resumen Es relativamente fácil experimentar cierta frustración al interaccionar con agentes conversacionales (Spoken Conversational Agents, SCA), a menudo porque parecen ser un poco insensibles. En general, la calidad de la interacción persona-agente se ve en cierto modo afectada por la incapacidad de los SCAs para identificar y adaptarse al estado emocional de sus usuarios. Actualmente, y debido al creciente atractivo e interés de dichos agentes, surge la necesidad de hacer de los SCAs unos seres cada vez más sociales y emocionalmente inteligentes, es decir, con capacidad para inferir y adaptarse a las emociones de sus interlocutores humanos sobre la marcha, de modo que la interacción resulte más afectiva, empática y, en definitiva, natural. Una interacción mejorada en este sentido permitiría reducir la posible frustración de los usuarios y, en consecuencia, mejorar el nivel de satisfacción alcanzado por los mismos. Estos argumentos justifican y motivan el desarrollo de nuevos SCAs con capacidades socio-emocionales, dotados de interfaces afectivas y socialmente sensibles. Una de las barreras para la creación de tales interfaces ha sido la falta de métodos de modelado de emociones en entornos independientes de tarea. La mayoría de los modelos emocionales empleados por los sistemas de diálogo hablado actuales son dependientes de tarea y, por tanto, no pueden utilizarse "tal cual" en diferentes dominios o aplicaciones. Esta tesis se centra precisamente en la mejora de este aspecto, la definición de modelos computacionales de las emociones, la personalidad y su interrelación para SCAs autónomos e independientes de tarea. Inspirada en los sistemas motivacionales humanos en el ámbito de la psicología, la tesis propone un modelo de generación/producción de la emoción basado en necesidades. El trabajo realizado en la presente tesis está organizado en tres etapas diferenciadas, cada una con su propia contribución. La primera etapa incluyó la definición, integración y cuantificación de los modelos motivacionales de partida y de los modelos emocionales derivados a partir de éstos. Posteriormente, dichos modelos emocionales fueron plasmados en un modelo computacional mediante su implementación software. Este modelo computacional fue incorporado y probado en un SCA anfitrión ya existente, un agente con capacidad para controlar un equipo HiFi, de alta fidelidad. La segunda etapa se orientó hacia el reconocimiento automático de la emoción, aspecto que ha constituido el principal desafío en relación al objetivo mayor de infundir inteligencia social en el agente HiFi. En los últimos años, los estudios sobre reconocimiento de emociones a partir de la voz han pasado de emplear datos actuados a usar datos reales en los que la presencia u observación de emociones se produce de una manera mucho más sutil. El reconocimiento de emociones bajo estas condiciones resulta mucho más complicado y esta dificultad se pone de manifiesto en tareas tales como el etiquetado y el aprendizaje automático. En esta etapa, se abordó el problema del reconocimiento de las emociones del usuario a partir de características o métricas derivadas del propio diálogo usuario-agente. Gracias a dichas métricas, empleadas como predictores o indicadores del grado o nivel de satisfacción alcanzado por el usuario, fue posible discriminar entre satisfacción y frustración, las dos emociones prevalentes durante la interacción usuario-agente. La etapa final corresponde fundamentalmente a la evaluación del modelo emocional por medio del agente Hifi. Con ese propósito se llevó a cabo una serie de estudios con usuarios reales, 70 sujetos, interaccionando con diferentes versiones del agente Hifi en tiempo real, cada uno en una fase diferente y con sus propias características o capacidades emocionales. En particular, todos los estudios realizados han profundizado en la comparación entre una versión de referencia del agente no dotada de ningún comportamiento o característica emocional, y una versión del agente modificada convenientemente con el modelo emocional propuesto. Los resultados obtenidos nos han permitido comprender y valorar mejor la utilidad de las emociones en los sistemas de diálogo hablado. Dicha utilidad depende de varios aspectos. En primer lugar, un SCA no debe expresar sus emociones a ciegas o arbitrariamente, incluso aunque éstas sean positivas. Más bien, debe adaptar sus emociones a los diferentes estados de los usuarios. En segundo lugar, un funcionamiento relativamente pobre por parte de un SCA podría compensarse, en cierto modo, dotando al SCA de comportamiento y capacidades emocionales. En tercer lugar, aprovechar la prosodia como vehículo para expresar las emociones, de manera complementaria al empleo de mensajes con un contenido emocional específico tanto desde el punto de vista léxico como semántico, ayuda a mejorar la percepción por parte de los usuarios de un SCA. Tomados en conjunto, los resultados alcanzados no sólo confirman el éxito del modelo emocional, sino xv que constituyen además una evidencia decisiva con respecto a los beneficios de incorporar emociones en un SCA, especialmente en cuanto a reducir el nivel de frustración de los usuarios y, en última instancia, mejorar su satisfacción.
Resumo:
Esta tesis realiza una contribución metodológica al problema de la gestión óptima de embalses hidroeléctricos durante eventos de avenidas, considerando un enfoque estocástico y multiobjetivo. Para ello se propone una metodología de evaluación de estrategias de laminación en un contexto probabilístico y multiobjetivo. Además se desarrolla un entorno dinámico de laminación en tiempo real con pronósticos que combina un modelo de optimización y algoritmos de simulación. Estas herramientas asisten a los gestores de las presas en la toma de decisión respecto de cuál es la operación más adecuada del embalse. Luego de una detallada revisión de la bibliografía, se observó que los trabajos en el ámbito de la gestión óptima de embalses en avenidas utilizan, en general, un número reducido de series de caudales o hidrogramas para caracterizar los posibles escenarios. Limitando el funcionamiento satisfactorio de un modelo determinado a situaciones hidrológicas similares. Por otra parte, la mayoría de estudios disponibles en este ámbito abordan el problema de la laminación en embalses multipropósito durante la temporada de avenidas, con varios meses de duración. Estas características difieren de la realidad de la gestión de embalses en España. Con los avances computacionales en materia de gestión de información en tiempo real, se observó una tendencia a la implementación de herramientas de operación en tiempo real con pronósticos para determinar la operación a corto plazo (involucrando el control de avenidas). La metodología de evaluación de estrategias propuesta en esta tesis se basa en determinar el comportamiento de éstas frente a un espectro de avenidas características de la solicitación hidrológica. Con ese fin, se combina un sistema de evaluación mediante indicadores y un entorno de generación estocástica de avenidas, obteniéndose un sistema implícitamente estocástico. El sistema de evaluación consta de tres etapas: caracterización, síntesis y comparación, a fin de poder manejar la compleja estructura de datos resultante y realizar la evaluación. En la primera etapa se definen variables de caracterización, vinculadas a los aspectos que se quieren evaluar (seguridad de la presa, control de inundaciones, generación de energía, etc.). Estas variables caracterizan el comportamiento del modelo para un aspecto y evento determinado. En la segunda etapa, la información de estas variables se sintetiza en un conjunto de indicadores, lo más reducido posible. Finalmente, la comparación se lleva a cabo a partir de la comparación de esos indicadores, bien sea mediante la agregación de dichos objetivos en un indicador único, o bien mediante la aplicación del criterio de dominancia de Pareto obteniéndose un conjunto de soluciones aptas. Esta metodología se aplicó para calibrar los parámetros de un modelo de optimización de embalse en laminación y su comparación con otra regla de operación, mediante el enfoque por agregación. Luego se amplió la metodología para evaluar y comparar reglas de operación existentes para el control de avenidas en embalses hidroeléctricos, utilizando el criterio de dominancia. La versatilidad de la metodología permite otras aplicaciones, tales como la determinación de niveles o volúmenes de seguridad, o la selección de las dimensiones del aliviadero entre varias alternativas. Por su parte, el entorno dinámico de laminación al presentar un enfoque combinado de optimización-simulación, permite aprovechar las ventajas de ambos tipos de modelos, facilitando la interacción con los operadores de las presas. Se mejoran los resultados respecto de los obtenidos con una regla de operación reactiva, aun cuando los pronósticos se desvían considerablemente del hidrograma real. Esto contribuye a reducir la tan mencionada brecha entre el desarrollo teórico y la aplicación práctica asociada a los modelos de gestión óptima de embalses. This thesis presents a methodological contribution to address the problem about how to operate a hydropower reservoir during floods in order to achieve an optimal management considering a multiobjective and stochastic approach. A methodology is proposed to assess the flood control strategies in a multiobjective and probabilistic framework. Additionally, a dynamic flood control environ was developed for real-time operation, including forecasts. This dynamic platform combines simulation and optimization models. These tools may assist to dam managers in the decision making process, regarding the most appropriate reservoir operation to be implemented. After a detailed review of the bibliography, it was observed that most of the existing studies in the sphere of flood control reservoir operation consider a reduce number of hydrographs to characterize the reservoir inflows. Consequently, the adequate functioning of a certain strategy may be limited to similar hydrologic scenarios. In the other hand, most of the works in this context tackle the problem of multipurpose flood control operation considering the entire flood season, lasting some months. These considerations differ from the real necessity in the Spanish context. The implementation of real-time reservoir operation is gaining popularity due to computational advances and improvements in real-time data management. The methodology proposed in this thesis for assessing the strategies is based on determining their behavior for a wide range of floods, which are representative of the hydrological forcing of the dam. An evaluation algorithm is combined with a stochastic flood generation system to obtain an implicit stochastic analysis framework. The evaluation system consists in three stages: characterizing, synthesizing and comparing, in order to handle the complex structure of results and, finally, conduct the evaluation process. In the first stage some characterization variables are defined. These variables should be related to the different aspects to be evaluated (such as dam safety, flood protection, hydropower, etc.). Each of these variables characterizes the behavior of a certain operating strategy for a given aspect and event. In the second stage this information is synthesized obtaining a reduced group of indicators or objective functions. Finally, the indicators are compared by means of an aggregated approach or by a dominance criterion approach. In the first case, a single optimum solution may be achieved. However in the second case, a set of good solutions is obtained. This methodology was applied for calibrating the parameters of a flood control model and to compare it with other operating policy, using an aggregated method. After that, the methodology was extent to assess and compared some existing hydropower reservoir flood control operation, considering the Pareto approach. The versatility of the method allows many other applications, such as determining the safety levels, defining the spillways characteristics, among others. The dynamic framework for flood control combines optimization and simulation models, exploiting the advantages of both techniques. This facilitates the interaction between dam operators and the model. Improvements are obtained applying this system when compared with a reactive operating policy, even if the forecasts deviate significantly from the observed hydrograph. This approach contributes to reduce the gap between the theoretical development in the field of reservoir management and its practical applications.
Resumo:
Este trabajo pretende investigar como se comporta un modelo de crecimiento del empleo en un territorio geográficamente cerrado considerando tanto su vertiente espacial, y el efecto de rebosamiento espacial de la variable endógena de empleo, como su vertiente temporal considerando el comportamiento de las variables empleo y recursos en diferentes ejercicios económicos sucesivos. Esto último permite incorporar el efecto de relación temporal entre las variables permitiendo derivar otros indicadores temporales que según el modelo faciliten una explicación del comportamiento del empleo en el tiempo. Para evaluar el modelo se ha tomado como piloto una subcomarca de acentuado carácter rural de Palencia, y se ha utilizado la modelación SUR Espacial.
Resumo:
Fundamento de la tesis: Al comienzo del siglo XX, el interés por el turismo unido a la necesidad de restaurar un abundante patrimonio histórico, posibilitó en España que los poderes públicos se embarcaran en una singular experiencia: la creación de una infraestructura hotelera a partir de la rehabilitación de edificios históricos. La preservación, mantenimiento e incluso rentabilidad de una gran parte del patrimonio español se haría efectiva a través de la innovadora fórmula patrimonio‐turismo, cuya máxima expresión se materializó en la Red de Paradores desde su fundación en la segunda década del siglo pasado hasta nuestros días. Sorprendentemente, este tema no ha sido todavía investigado en su vertiente arquitectónica pese a que España ha sido pionera y modelo en la cuestión de la hotelería pública. Este trabajo aborda el estudio del caso más significativo de todos los edificios de la red, en tanto que el patrimonio que ha servido de base a los fines hoteleros del Estado ha contado con un total de seis tipos arquitectónicos a lo largo de su historia, dentro de los cuales la arquitectura militar despunta con su mayoritaria presencia dentro del contexto de los edificios históricos de la red. El carácter arquetípico de los castillos y fortalezas, arraigado en el inconsciente colectivo, les hizo especialmente atractivos como alojamiento turístico al permitir evocar la remota época medieval, pese a ser el tipo arquitectónico más comprometido para la rehabilitación hotelera. El estudio de las intervenciones operadas en estos inmuebles se revela de forma clara como escaparate de los distintos criterios de intervención patrimonial que se han sucedido en el siglo XX, hasta enlazar con la perspectiva interdisciplinar actual. La tesis abarca en, primer lugar, diferentes aspectos generales relativos al promotor hotelero, la hotelería pública de ámbito nacional e internacional, y la caracterización de los inmuebles de la red estatal española, desde el punto de vista hotelero y arquitectónico, entendida esta última en sus tres escalas de influencia: la arquitectónica, la urbana o paisajística, y la del interiorismo. Se analiza en segundo término la arquitectura militar dentro del contexto de la Red de Paradores, desde la consideración de su transformación hotelera, para lo cual ha sido necesario realizar una clasificación propia, que abarca tanto edificios que respondieron a una estructura de cuartel, como castillos‐palacio, o fortalezas que habían servido a los fines de una orden religiosa militar, además de considerarse las intervenciones en recintos históricos de carácter militar, donde se hacía obligatorio construir de nueva planta. En tercer y último lugar, se analiza a lo largo de las distintas etapas del organismo turístico las rehabilitaciones realizadas en estas construcciones militares, a la vez que se tienen en cuenta las intervenciones en los restantes edificios históricos, para evitar la descontextualización. Este recorrido comienza con la promoción de los dos primeros paradores a cargo del Comisario Regio, el marqués de la Vega‐Inclán, que sirvieron para sentar las bases de los conceptos e ideas que habrían de desarrollarse en las siguientes décadas. Posteriormente, se desarrolló y tomó forma la red con el Patronato Nacional del Turismo, en la que las primeras intervenciones en tipos militares se tradujeron en reformas interiores de locales. La etapa clave de la red, y en particular de la arquitectura militar, tuvo lugar con el Ministerio de Información y Turismo, marcada por la “repristinación” de monumentos, tras un período preparatorio con la Dirección General del Turismo en el que lo militar había quedado de telón de fondo de otros tipos arquitectónicos. Tras el auge del Ministerio llegó el período de decadencia en el que los castillos y fortalezas desaparecieron de los intereses de las Secretarias de Turismo, hasta llegar a las inauguraciones de los novedosos establecimientos del siglo XXI y el resurgimiento del tipo militar con el parador de Lorca. Metodología empleada: Este trabajo de investigación se ha servido fundamentalmente de documentación inédita, procedente de diversos archivos, además de una muy extensa toma de datos in situ. Dentro del patrimonio analizado, los inmuebles que responden al tipo arquitectónico militar se han dividido en tres grandes grupos: inmuebles rehabilitados que entraron en funcionamiento en la red, inmuebles en proceso de transformación hotelera, e inmuebles que fueron adquiridos con fines hoteleros pero que no llegaron a rehabilitarse. Para cada uno de ellos ha sido necesario determinar en qué estado llegaron a manos de la Administración Turística, cuál fue el mecanismo a través del cual se adquirieron, en qué consistió su primera rehabilitación hotelera, y cuáles fueron las ampliaciones o reformas más significativas que se realizaron posteriormente. Estos datos se han sintetizado en fichas y se han extraído conclusiones al comparar cada unidad con el conjunto. Simultáneamente se introdujeron dos factores externos: la historia del turismo que permitió hacer una ordenación cronológica de los inmuebles según etapas, y la historia de la teoría y práctica de la intervención patrimonial en España que permitió comparar los criterios patrimoniales de la Administración competente respecto de las intervenciones de la Administración Turística, cuyo contacto se haría obligatorio a partir del Decreto, de 22 de abril de 1949, que dejaba bajo la tutela del Estado a todos los castillos y fortalezas. Aportación de la tesis: Con carácter general, la tesis centra una ordenación y sistematización completa del patrimonio inmobiliario de la red, desde el punto de vista de los tipos hoteleros y arquitectónicos, además de poner por primera vez en conexión distintos modelos de hotelería pública, para constituirse en el sustrato de futuras investigaciones. El estudio realizado se ha hecho extensivo a las distintas escalas que inciden de forma interconectada en la implantación de un parador: la arquitectónica, la urbana y la del interiorismo, hasta ahora referenciado desde la exclusiva visión arquitectónica. Se han definido las etapas de la historia de la red, no ya sólo a partir del hilo conductor de la cadena sucesiva de organismos turísticos, sino que por primera vez se hace en razón de la evolución que sufren las intervenciones patrimoniales a lo largo del tiempo, a la vez que se entra en conexión con la teoría y praxis de la restauración monumental. Con carácter particular, la arquitectura militar dentro del contexto de los paradores se destaca en el período del Ministerio, en el que se experimentaron todas las posibilidades que presentaba su rehabilitación. En este sentido se ha puesto de manifiesto en este trabajo un tipo híbrido de parador, a caballo entre la rehabilitación y la edificación de nueva planta, las dos formas básicas de establecimiento creadas en la Comisaría Regia, al que se ha denominado edificación de nueva planta en recinto histórico militar. Esta nueva caracterización se ha valorado como la forma más eficiente de implantar paradores, cuyas pautas arquitectónicas abarcaron un abanico de posibilidades: imitación de modelos arquitectónicos históricos con utilización de elementos patrimoniales prestados que dieran el valor de la historia, utilización de un lenguaje moderno, o la inspiración en la arquitectura vernácula. La amalgama de elementos, estilos e intervenciones sucesivas de ampliación fue la característica común tanto para la implantación de un parador en un edificio como en un recinto amurallado. La arquitectura militar transformada en establecimiento hotelero evidencia la vocación escenográfica de las intervenciones patrimoniales, secundada por el interiorismo, además de su aportación a la arquitectura hotelera en lo referente al confort, organización y funcionamiento de sus instalaciones. La tesis ahonda en los diversos aspectos de la rehabilitación hotelera apuntados de forma parcial por algunos autores, y pone de manifiesto la “ambientación medieval” operada en la arquitectura militar, que llegó a tener su máxima expresión con el criterio de la “unidad de estilo” del Ministerio de Información y Turismo. La rehabilitación hotelera dentro del contexto de la Red de Paradores, queda caracterizada en la tesis en relación a intervenciones en construcciones militares, cuya sistematización puede ser extrapolable a otros tipos arquitectónicos o cadenas hoteleras de titularidad pública, a partir del estudio que se ha avanzado en este trabajo. Thesis basis: At the beginning of the 20th century the interest in tourism added to the plentiful heritage in Spain enabled the authorities to embark on a singular experience: the creation of a hotel infrastructure from the restoration of historic buildings. Preservation, maintenance, and even profitability of a large part of the Spanish heritage would be effective through the innovative formula heritage-tourism. Its greatest expression materialized in the Paradores Network since its foundation in last century’s second decade to the present day. Surprisingly, this subject has not yet been investigated in its architectural aspect, even though Spain has been a pioneer and a model in the matter of public hotel business. This project tackles the study of the most significative case of all the network’s buildings, since the heritage which has served throughout history as a base for the State hotel purposes has altogether six architectural types, among which military architecture stands out with its majority presence in the context of the historical buildings of the network. The archetypal character of castles and fortresses, ingrained in the collective subconscious, made them specially attractive for tourist accommodation, as it allowed the evocation of far medieval times, despite being the most awkward architectural type for hotel restoration. The study of the interventions in these buildings clearly reveals itself as a showcase of the different criteria of heritage intervention along the 20th century, connecting to the present interdisciplinary perspective. Firstly, the thesis covers different general aspects regarding the hotel developer, the domestic and international public hotel business, and the description of the Spanish state network buildings from a hotel business and an architectural point of view, the latter from its three influence scales: architectural, urban or landscape, and interior design. Secondly, the transformation of the military architecture in the Paradores Network into hotels is analyzed. For that purpose it was necessary to create a specific classification, which included barrack-structured buildings, castle-palaces, or fortresses which served the purposes of military-religious orders. The interventions in those military historical places where new building became compulsory were also taken into consideration. Thirdly and lastly, the thesis analyses the restorations in these military constructions through the different stages of the tourist organization. In order to avoid decontextualization, interventions in other historical buildings were also considered. This route begins with the promotion of the two first Paradores by the Royal Commissioner, the marquis of Vega-Inclán, which paved the way for the concepts and ideas that were developed in the following decades. Subsequently, the network was developed and took shape with the National Tourism Board. The first interventions on military types were inside refurbishments. The Network’s key period, and in particular of its military architecture, took place with the Ministry of Information and Tourism, a time marked by the “restoration to its original state” of monuments. This stage arrived after a preparatory period with the State Tourist Office, when the military type was left as a backdrop for other architectural types. After the Ministry’s boom arrived a decline, in which castles and fortresses disappeared from the Tourist Department’s interests up to the opening of the 21st century new establishments and the resurgence of the military type with Lorca’s Parador. Methodology: The present research project has mainly used unpublished documentation from several archives and has done an extensive in situ data-gathering. Within the heritage analyzed, military buildings have been divided into three main groups: restored buildings that began to operate in the network, those in process of hotel transformation, and those acquired for hotel purposes, but which did not become restored. In each case, it has been necessary to determine the condition in which they arrived to the Tourist Administration, the procedure by which they were acquired, what their first hotel restoration consisted of, and which their subsequent most significative enlargements and alterations were. These facts have been synthesized in cards, and conclusions were drawn by comparing each unit with the whole. Simultaneously, two external factors were introduced: the history of tourism, that allowed establishing a chronological order according to different periods, and the history of Spanish heritage intervention’s theory and practice, that permitted to compare the heritage criteria from the competent Administration with those of the Tourist Administration’s interventions. Both Administrations came compulsorily into contact after the Decree of 22nd April 1949, by which all castles and fortresses became under the protection of the State. Thesis contribution: In general, the thesis focuses on a complete order and systematization of the network’s heritage buildings from the hotel and architectural types points of view, besides connecting for the first time different public hotel business models, becoming the substratum for future investigations. The study has included the different scales that impact interconnected on the establishment of a Parador: architectural, urban and interior design, only referenced to date from an architectural point of view. The Network’s history stages have been defined according to not only a consecutive series of tourist organizations, but also, and for the first time, to the evolution of heritage interventions over time, thus connecting with the theory and praxis of monumental restoration. In particular, within the Paradores, military architecture stands out in the Ministry’s period, in which all kind of restoration possibilities were explored. In this sense, the present project puts forth a hybrid type of Parador between restoration and new building, the two basic ways of establishment created in the Royal Commission, termed new building in military historic enclosure. This new characterization has been evaluated as the most efficient for establishing Paradores, whose architectonic guidelines include a wide range of possibilities: the imitation of historical architectonic models with use of borrowed heritage components that provide historical value, the use of modern language, or the inspiration in vernacular architecture. The amalgam of elements, styles and consecutive enlargement interventions was the common feature of the establishment of a Parador, both in a building or in a walled enclosure. The military architecture transformed into a hotel establishment gives proof of the scenographic vocation of heritage interventions, supported by interior design, as well as of its contribution to hotel architecture, related to its comfort, organization and the functioning of its facilities. The thesis delves into the diverse aspects of hotel restoration, partially pointed out by several authors, and puts forth the creation of a “medieval atmosphere” in military architecture, which came to its highest expression with the “unitary style” criteria of the Ministry of Information and Tourism. Hotel restoration within the context of the Paradores’ Network is defined in this thesis in relation to interventions in military constructions, whose systemization can be extrapolative to other architectural types or public hotel chains, based on the study which has been put forward in this project.
Resumo:
La idea principal de este artículo es realizar una reflexión sobre el concepto de variedad urbana entendida como una cualidad intrínseca de la ciudad, relacionada directamente con la calidad de vida e imprescindible para plantear modelos alternativos de intervención en la ciudad y el territorio así como procesos de regeneración y rehabilitación integral. Se trata de una condición necesaria aunque no suficiente de la calidad de vida urbana. El proceso de desarrollo económico ha venido ejerciendo una influencia perversa en la ciudad y en el planeamiento de las nuevas áreas urbanas, al provocar la división de la ciudad en piezas homogéneas, separadas social, funcional y espacialmente; y, promover, al mismo tiempo, la expansión urbana y la degradación de las áreas centrales de la ciudad, incluidas las grandes periferias surgidas en el último tercio del siglo XX. La ausencia de variedad se puede considerar un síntoma de la vulnerabilidad urbana. Por esta razón, es necesario transcender del concepto limitado y reducido de variedad urbana, al que habitualmente se recurre, más relacionado con la idea de mezcla de actividades y usos, o bien, con el sumatorio de diversidades parciales (similar al utilizado en Ecología) hacia un enfoque más complejo y global.
Resumo:
Este trabajo aborda el problema de modelizar sistemas din´amicos reales a partir del estudio de sus series temporales, usando una formulaci´on est´andar que pretende ser una abstracci´on universal de los sistemas din´amicos, independientemente de su naturaleza determinista, estoc´astica o h´ıbrida. Se parte de modelizaciones separadas de sistemas deterministas por un lado y estoc´asticos por otro, para converger finalmente en un modelo h´ıbrido que permite estudiar sistemas gen´ericos mixtos, esto es, que presentan una combinaci´on de comportamiento determinista y aleatorio. Este modelo consta de dos componentes, uno determinista consistente en una ecuaci´on en diferencias, obtenida a partir de un estudio de autocorrelaci´on, y otro estoc´astico que modeliza el error cometido por el primero. El componente estoc´astico es un generador universal de distribuciones de probabilidad, basado en un proceso compuesto de variables aleatorias, uniformemente distribuidas en un intervalo variable en el tiempo. Este generador universal es deducido en la tesis a partir de una nueva teor´ıa sobre la oferta y la demanda de un recurso gen´erico. El modelo resultante puede formularse conceptualmente como una entidad con tres elementos fundamentales: un motor generador de din´amica determinista, una fuente interna de ruido generadora de incertidumbre y una exposici´on al entorno que representa las interacciones del sistema real con el mundo exterior. En las aplicaciones estos tres elementos se ajustan en base al hist´orico de las series temporales del sistema din´amico. Una vez ajustados sus componentes, el modelo se comporta de una forma adaptativa tomando como inputs los nuevos valores de las series temporales del sistema y calculando predicciones sobre su comportamiento futuro. Cada predicci´on se presenta como un intervalo dentro del cual cualquier valor es equipro- bable, teniendo probabilidad nula cualquier valor externo al intervalo. De esta forma el modelo computa el comportamiento futuro y su nivel de incertidumbre en base al estado actual del sistema. Se ha aplicado el modelo en esta tesis a sistemas muy diferentes mostrando ser muy flexible para afrontar el estudio de campos de naturaleza dispar. El intercambio de tr´afico telef´onico entre operadores de telefon´ıa, la evoluci´on de mercados financieros y el flujo de informaci´on entre servidores de Internet son estudiados en profundidad en la tesis. Todos estos sistemas son modelizados de forma exitosa con un mismo lenguaje, a pesar de tratarse de sistemas f´ısicos totalmente distintos. El estudio de las redes de telefon´ıa muestra que los patrones de tr´afico telef´onico presentan una fuerte pseudo-periodicidad semanal contaminada con una gran cantidad de ruido, sobre todo en el caso de llamadas internacionales. El estudio de los mercados financieros muestra por su parte que la naturaleza fundamental de ´estos es aleatoria con un rango de comportamiento relativamente acotado. Una parte de la tesis se dedica a explicar algunas de las manifestaciones emp´ıricas m´as importantes en los mercados financieros como son los “fat tails”, “power laws” y “volatility clustering”. Por ´ultimo se demuestra que la comunicaci´on entre servidores de Internet tiene, al igual que los mercados financieros, una componente subyacente totalmente estoc´astica pero de comportamiento bastante “d´ocil”, siendo esta docilidad m´as acusada a medida que aumenta la distancia entre servidores. Dos aspectos son destacables en el modelo, su adaptabilidad y su universalidad. El primero es debido a que, una vez ajustados los par´ametros generales, el modelo se “alimenta” de los valores observables del sistema y es capaz de calcular con ellos comportamientos futuros. A pesar de tener unos par´ametros fijos, la variabilidad en los observables que sirven de input al modelo llevan a una gran riqueza de ouputs posibles. El segundo aspecto se debe a la formulaci´on gen´erica del modelo h´ıbrido y a que sus par´ametros se ajustan en base a manifestaciones externas del sistema en estudio, y no en base a sus caracter´ısticas f´ısicas. Estos factores hacen que el modelo pueda utilizarse en gran variedad de campos. Por ´ultimo, la tesis propone en su parte final otros campos donde se han obtenido ´exitos preliminares muy prometedores como son la modelizaci´on del riesgo financiero, los algoritmos de routing en redes de telecomunicaci´on y el cambio clim´atico. Abstract This work faces the problem of modeling dynamical systems based on the study of its time series, by using a standard language that aims to be an universal abstraction of dynamical systems, irrespective of their deterministic, stochastic or hybrid nature. Deterministic and stochastic models are developed separately to be merged subsequently into a hybrid model, which allows the study of generic systems, that is to say, those having both deterministic and random behavior. This model is a combination of two different components. One of them is deterministic and consisting in an equation in differences derived from an auto-correlation study and the other is stochastic and models the errors made by the deterministic one. The stochastic component is an universal generator of probability distributions based on a process consisting in random variables distributed uniformly within an interval varying in time. This universal generator is derived in the thesis from a new theory of offer and demand for a generic resource. The resulting model can be visualized as an entity with three fundamental elements: an engine generating deterministic dynamics, an internal source of noise generating uncertainty and an exposure to the environment which depicts the interactions between the real system and the external world. In the applications these three elements are adjusted to the history of the time series from the dynamical system. Once its components have been adjusted, the model behaves in an adaptive way by using the new time series values from the system as inputs and calculating predictions about its future behavior. Every prediction is provided as an interval, where any inner value is equally probable while all outer ones have null probability. So, the model computes the future behavior and its level of uncertainty based on the current state of the system. The model is applied to quite different systems in this thesis, showing to be very flexible when facing the study of fields with diverse nature. The exchange of traffic between telephony operators, the evolution of financial markets and the flow of information between servers on the Internet are deeply studied in this thesis. All these systems are successfully modeled by using the same “language”, in spite the fact that they are systems physically radically different. The study of telephony networks shows that the traffic patterns are strongly weekly pseudo-periodic but mixed with a great amount of noise, specially in the case of international calls. It is proved that the underlying nature of financial markets is random with a moderate range of variability. A part of this thesis is devoted to explain some of the most important empirical observations in financial markets, such as “fat tails”, “power laws” and “volatility clustering”. Finally it is proved that the communication between two servers on the Internet has, as in the case of financial markets, an underlaying random dynamics but with a narrow range of variability, being this lack of variability more marked as the distance between servers is increased. Two aspects of the model stand out as being the most important: its adaptability and its universality. The first one is due to the fact that once the general parameters have been adjusted , the model is “fed” on the observable manifestations of the system in order to calculate its future behavior. Despite the fact that the model has fixed parameters the variability in the observable manifestations of the system, which are used as inputs of the model, lead to a great variability in the possible outputs. The second aspect is due to the general “language” used in the formulation of the hybrid model and to the fact that its parameters are adjusted based on external manifestations of the system under study instead of its physical characteristics. These factors made the model suitable to be used in great variety of fields. Lastly, this thesis proposes other fields in which preliminary and promising results have been obtained, such as the modeling of financial risk, the development of routing algorithms for telecommunication networks and the assessment of climate change.