850 resultados para Sistemas en tiempo real
Resumo:
La productividad forrajera (PF) es una variable crítica para el manejo y la planificación de los sistemas de producción ganaderos. Sin embargo, las dificultades para cuantificarla a campo y la necesidad de manejar un marco conceptual robusto para utilizarla en la toma de decisiones hacen que habitualmente los sistemas de producción se manejen con una caracterización rudimentaria de esta variable. En esta tesis se desarrolló un sistema de seguimiento de la PF en tiempo real y a la escala de lote, basado en la lógica de la eficiencia en el uso de la radiación (EUR). Primero se diseñó y se puso en funcionamiento una versión preliminar del sistema, y luego se investigaron en mayor detalle dos aspectos críticos de su funcionamiento: la estimación de la fracción de radiación absorbida por el canopeo (fRFAA) a partir de índices de vegetación derivados de imágenes satelitales, y el comportamiento de la EUR ante variaciones del estrés ambiental, el manejo de la defoliación, y la escala temporal de observación. La metodología para implementar la versión preliminar del sistema de seguimiento forrajero se basó en estimar la fRFAA y la EUR. La primera fue estimada como una función no lineal del índice de vegetación normalizado del sensor MODIS. La estimación de la EUR se basó en calibraciones empíricas entre la PF estimada a campo y la radiación absorbida para dos recursos forrajeros: pasturas de loma y bajos de agropiro. Los resultados mostraron que la radiación absorbida predijo datos independientes de PF con precisión aceptable. El sistema fue implementado informáticamente en un software específico denominado Segf. En relación al primer aspecto de mejora del sistema, la estimación de la fRFAA, se estudió la absorción de radiación a campo con una barra de interceptación en cultivos de trigo (utilizados como modelo experimental) y se la correlacionó con distintos índices de vegetación calculados a partir del sensor espectral MODIS. Se encontró que los índices de vegetación explicaron entre 90 y 94 por ciento de las variaciones de fRFAA. El índice de vegetación mejorado presentó una relación más lineal que el clásico índice de vegetación normalizado, posiblemente debido a la ausencia de saturación del primero ante aumentos del área foliar. En relación al segundo aspecto de mejora del sistema, la variabilidad de la EUR, se realizó un experimento de un año sobre una pastura consociada de festuca y alfalfa sometida a distintos tratamientos. La EUR fue más estable que la fRFAA ante cambios de la disponibilidad de recursos y de intensidad de defoliación. Sin embargo, la EUR tendió a disminuir ante estrés hídrico (déficit y exceso), y a aumentar ante defoliación severa y sombreado. Además, la variabilidad de la EUR a lo largo del rebrote de la pastura y entre tratamientos dependió de la escala temporal de observación o cálculo: fue más variable al considerar períodos de 12 días que al considerar todo el período de rebrote o la estación (45 y 90 días respectivamente). Como resultado de la tesis, los productores agropecuarios y sus asesores cuentan con un sistema capaz de estimar mes a mes la PF de sus lotes para una serie temporal de aproximadamente diez años. Actualmente 1.478.000 ha ganaderas están bajo seguimiento mediante un sistema basado en esta tesis. Esto implica un cambio cualitativo de disponibilidad de información y representa una oportunidad para tomar mejores decisiones de manejo, a la vez que concientiza sobre el uso racional del forraje para maximizar su crecimiento. Adicionalmente, la base de datos de PF generada, extraordinariamente amplia en su cobertura espacial y temporal, será de utilidad para trabajos de investigación sobre los patrones espacio-temporales de PF.
Resumo:
La productividad forrajera (PF)es una variable crítica para el manejo y la planificación de los sistemas de producción ganaderos. Sin embargo, las dificultades para cuantificarla a campo y la necesidad de manejar un marco conceptual robusto para utilizarla en la toma de decisiones hacen que habitualmente los sistemas de producción se manejen con una caracterización rudimentaria de esta variable. En esta tesis se desarrolló un sistema de seguimiento de la PF en tiempo real y a la escala de lote, basado en la lógica de la eficiencia en el uso de la radiación (EUR). Primero se diseñó y se puso en funcionamiento una versión preliminar del sistema, y luego se investigaron en mayor detalle dos aspectos críticos de su funcionamiento: la estimación de la fracción de radiación absorbida por el canopeo (fRFAA)a partir de índices de vegetación derivados de imágenes satelitales, y el comportamiento de la EUR ante variaciones del estrés ambiental, el manejo de la defoliación, y la escala temporal de observación. La metodología para implementar la versión preliminar del sistema de seguimiento forrajero se basó en estimar la fRFAA y la EUR. La primera fue estimada como una función no lineal del índice de vegetación normalizado del sensor MODIS. La estimación de la EUR se basó en calibraciones empíricas entre la PF estimada a campo y la radiación absorbida para dos recursos forrajeros: pasturas de loma y bajos de agropiro. Los resultados mostraron que la radiación absorbida predijo datos independientes de PF con precisión aceptable. El sistema fue implementado informáticamente en un software específico denominado Segf. En relación al primer aspecto de mejora del sistema, la estimación de la fRFAA, se estudió la absorción de radiación a campo con una barra de interceptación en cultivos de trigo (utilizados como modelo experimental)y se la correlacionó con distintos índices de vegetación calculados a partir del sensor espectral MODIS. Se encontró que los índices de vegetación explicaron entre 90 y 94 por ciento de las variaciones de fRFAA. El índice de vegetación mejorado presentó una relación más lineal que el clásico índice de vegetación normalizado, posiblemente debido a la ausencia de saturación del primero ante aumentos del área foliar. En relación al segundo aspecto de mejora del sistema, la variabilidad de la EUR, se realizó un experimento de un año sobre una pastura consociada de festuca y alfalfa sometida a distintos tratamientos. La EUR fue más estable que la fRFAA ante cambios de la disponibilidad de recursos y de intensidad de defoliación. Sin embargo, la EUR tendió a disminuir ante estrés hídrico (déficit y exceso), y a aumentar ante defoliación severa y sombreado. Además, la variabilidad de la EUR a lo largo del rebrote de la pastura y entre tratamientos dependió de la escala temporal de observación o cálculo: fue más variable al considerar períodos de 12 días que al considerar todo el período de rebrote o la estación (45 y 90 días respectivamente). Como resultado de la tesis, los productores agropecuarios y sus asesores cuentan con un sistema capaz de estimar mes a mes la PF de sus lotes para una serie temporal de aproximadamente diez años. Actualmente 1.478.000 ha ganaderas están bajo seguimiento mediante un sistema basado en esta tesis. Esto implica un cambio cualitativo de disponibilidad de información y representa una oportunidad para tomar mejores decisiones de manejo, a la vez que concientiza sobre el uso racional del forraje para maximizar su crecimiento. Adicionalmente, la base de datos de PF generada, extraordinariamente amplia en su cobertura espacial y temporal, será de utilidad para trabajos de investigación sobre los patrones espacio-temporales de PF.
Resumo:
En los últimos meses las empresa FOMEX y Consultar han estado desarrollando unos prototipos usando técnicas de Comet para demostrar su utilidad en el campo de los Sistemas de Información Geográfica. Comet es una técnica de programación Web que consiste en dejar una conexión abierta entre el servidor y el navegador de internet. Con esta técnica el servidor web, envía datos al cliente ligero sin necesidad de una petición explícita. Esta tecnología permite el trabajo colaborativo en tiempo real, puesto que el cliente en un navegador web cualquiera recibe información sin necesidad de pedirla o actualizar la página web. Con este procedimiento se consigue llevar a los clientes ligeros que funcionan en cualquier dispositivo y sistema operativo funcionalidad que hasta el uso de estas técnicas no estaban disponible. Esta técnica difiere de la programación web tradicional en la cual se enviaba una página completa para cada petición, y también difiere de Ajax en la cual los datos están ya en el cliente y son obtenidos por conexiones traseras
Resumo:
Pretende ofrecer una técnica operativa, al profesional que debe enfrentarse con la realidad de una institución, centro, sistema educativo como directivo, organizador o supervisor. Asímismo, pretende hallar, presentar un método eficaz de análisis de sistemas educativos cuyos resultados den normativas opcionales eficientes para diseñar de nuevo en función real de los objetivos o necesidades que fueran aceptados por la dirección. Métodos de análisis de sistemas educativos. La investigación trabaja la teoría de sistemas, la cibernética, la teoría de modelos, la investigación operativa y la organización empresarial, todo como base para sintetizar los fundamentos de la tesis. Seguidamente, trata aspectos relacionados con la heurística, la tecnología y la organización. Todo esto para analizar y finalmente, concretar algunas metodologías en relación a la organización. Con esta tesis se ha establecido un Sistema de Análisis y Diseño de Sistemas, nuevo, facilitador de nuevas investigaciones, orientador para los profesionales en funciones directivas, y finalmente útil para la formación de los futuros conductores de las reformas educativas que deban producirse para adaptar la escuela a las exigencias de los tiempos venideros.
Resumo:
Resumen tomado del autor
Resumo:
Los avances e innovaciones tecnológicas en la actualidad han provocado significativos cambios sociales y empresariales que por su rapidez de actualización, obligan a las entidades del mundo entero a modernizar su infraestructura tecnológica, para evitar perder su presencia en el mercado competitivo en el que se desenvuelven, sin dejar de lado que los clientes también exigen estos cambios como parte de un servicio de mejor calidad. El principal enfoque de las organizaciones es el crecimiento constante de sus ingresos, respaldados en la eficiencia de sus diferentes procesos productivos, de manera tal que la revisión constante de estos, es vital para controlar los niveles de competitividad que requiere mantener la organización, sin descartar que las decisiones de negocios serán más eficientes si se cuenta con la información necesaria el momento oportuno. Esto se consigue principalmente con el soporte de los diferentes sistemas e infraestructuras tecnológicas que permiten acceder a indicadores, reportes o resultados en tiempo real. El contar con tecnología de punta es uno de los valores agregados más importantes de las grandes entidades financieras en el país y el mundo, y con esta necesidad latente los diferentes proveedores de software han diversificado sus productos y soluciones, por lo que han propuesto el uso de sus sistemas vía SAAS -software como servicio-, es decir acceder a la tecnología según el tamaño de la organización, mediante una conexión a internet y pago por el servicio requerido, sin desperdiciar recursos económicos, humanos o tecnológicos. Teniendo en cuenta lo mencionado, el acceso a esta nueva tecnología posibilitará a las reguladas entidades del sector financiero, puntualmente cooperativas, mejorar sus niveles de competitividad en el mercado, al contar con soluciones de vanguardia, acceder a tecnología de punta, diversificar su cartera de productos y gestionar la información relevante para la toma oportuna de decisiones, en función de los objetivos y estrategias de la entidad. Motivo por lo cual esta tesis, tiene la finalidad de proponer el uso de las herramientas tecnológicas de Internet denominadas SAAS, para aprovechar las ventajas y oportunidades que estas ofrecen y así conseguir una mejor administración y dirección de las cooperativas reguladas –SBS- y generar importantes ventajas competitivas en el mercado local.
Resumo:
Máster Universitario en Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería (SIANI)
Resumo:
[ES] Webcam App es una aplicación que tiene como principal objetivo social que las personas puedan realizar videoconferencias a través de la web de forma gratuita y sencilla. Para el desarrollo de la misma, fueron de gran utilidad los elementos que brinda HTML5.0 para dar soporte multimedia: y . También, se usan dos de las APIs que implementa WebRTC para la trasmisión de audio y video en tiempo real, obtenidos desde la webcam: MediaStream (getUserMedia) y RTCPeerConnection. Para soportar esta aplicación se elige Node.js como servidor web, pues entre sus puntos fuertes está la capacidad de mantener varias conexiones abiertas, característica fundamental en una aplicación de videollamadas, donde miles de usuarios crean y envían solicitudes de conexión simultáneamente. Con el fin de aportarle una apariencia agradable a la aplicación, un entorno usable y conocido para los usuarios, se utiliza CMS Elgg como marco de red social. CMS Elgg provee de funcionalidades comunes, como por ejemplo: conectar con amigos, enviar mensajes, compartir contenido. Como metodología base se usa el Proceso Unificado de Desarrollo de Software, posibilitando que la realización de este trabajo se haya hecho de una manera organizada y se obtuvieran artefactos para el desarrollo. Como resultado del trabajo, se obtiene una solución Open Source que sirve como un modelo de comunicación en tiempo real sin necesidad de descargar, instalar o actualizar ningún complemento de terceros y que demuestra la fiabilidad de los sistemas basados en HTML5 y WebRTC.
Resumo:
[ES] El presente TFG consiste en una aplicación para la detección de personas de cuerpo entero. La idea es aplicar este detector a las continuas imágenes recogidas en tiempo real a través de una web-cam, o de un archivo con formato de vídeo que se encuentre ubicado en el propio sistema. El código está escrito en C++. Para conseguir este objetivo nos basamos en el uso conjunto de dos sistemas de detección ya existentes: primero, OpenCV, mediante un método de histograma de gradientes orientados, el cual ya proporciona propiamente un detector de personas que será aplicado a cada una de las imágenes del stream de vídeo; por otro lado, el detector facial de la librería Encara que se aplica a cada una de las detecciones de supuestas personas obtenidas en el método de OpenCV, para comprobar si hay una cara en la supuesta persona detectada. En caso de ser así, y de haber una cara más o menos correctamente situada, determinamos que es realmente una persona. Para cada persona detectada se guardan sus datos de situación en la imagen, en una lista, para posteriormente compararlos con los datos obtenidos en frames anteriores, e intentar hacer un seguimiento de todas las personas. Visualmente se observaría como se va recuadrando cada persona con un color determinado aleatorio asignado a cada una, mientras se visualiza el vídeo. También se registra la hora y frame de aparición, y la hora y frame de salida, de cada persona detectada, quedando estos datos guardados tanto en un fichero de log, como en una base de datos. Los resultados son, bastante satisfactorios, aunque con posibilidades de mejora, ya que es un trabajo que permite combinar otras técnicas diferentes a las descritas. Debido a la complejidad de los métodos empleados se destaca la necesidad de alta capacidad de computación para poder ejecutar la aplicación en tiempo real sin ralentizaciones.
Resumo:
En este trabajo se presenta una propuesta didáctica que tiene como eje principal el tratamiento de la Tercera Ley de Newton en los cursos introductorios de Física en las carreras de Ingeniería. La idea se inicia con la detección de las falencias de los alumnos en el aprendizaje del contenido conceptual de dicha Ley y luego se diseñan una serie de experiencias empleando TIC´s para superar los inconvenientes que habitualmente encuentran los alumnos en su entendimiento. El empleo de herramientas informáticas requiere de un trabajo integral de diseño e implementación de estrategias de enseñanza. En las experiencias se emplean sensores de fuerza como medio de adquisición de datos y los resultados se visualizan en pantalla en tiempo real. Finalmente, se analizan en lápiz y papel las situaciones tratadas experimentalmente destacando el modelado, rango de validez y se contrasta los sistemas reales con los modelos estudiados.
Resumo:
En este trabajo se presenta una propuesta didáctica que tiene como eje principal el tratamiento de la Tercera Ley de Newton en los cursos introductorios de Física en las carreras de Ingeniería. La idea se inicia con la detección de las falencias de los alumnos en el aprendizaje del contenido conceptual de dicha Ley y luego se diseñan una serie de experiencias empleando TIC´s para superar los inconvenientes que habitualmente encuentran los alumnos en su entendimiento. El empleo de herramientas informáticas requiere de un trabajo integral de diseño e implementación de estrategias de enseñanza. En las experiencias se emplean sensores de fuerza como medio de adquisición de datos y los resultados se visualizan en pantalla en tiempo real. Finalmente, se analizan en lápiz y papel las situaciones tratadas experimentalmente destacando el modelado, rango de validez y se contrasta los sistemas reales con los modelos estudiados.
Resumo:
Distributed real-time embedded systems are becoming increasingly important to society. More demands will be made on them and greater reliance will be placed on the delivery of their services. A relevant subset of them is high-integrity or hard real-time systems, where failure can cause loss of life, environmental harm, or significant financial loss. Additionally, the evolution of communication networks and paradigms as well as the necessity of demanding processing power and fault tolerance, motivated the interconnection between electronic devices; many of the communications have the possibility of transferring data at a high speed. The concept of distributed systems emerged as systems where different parts are executed on several nodes that interact with each other via a communication network. Java’s popularity, facilities and platform independence have made it an interesting language for the real-time and embedded community. This was the motivation for the development of RTSJ (Real-Time Specification for Java), which is a language extension intended to allow the development of real-time systems. The use of Java in the development of high-integrity systems requires strict development and testing techniques. However, RTJS includes a number of language features that are forbidden in such systems. In the context of the HIJA project, the HRTJ (Hard Real-Time Java) profile was developed to define a robust subset of the language that is amenable to static analysis for high-integrity system certification. Currently, a specification under the Java community process (JSR- 302) is being developed. Its purpose is to define those capabilities needed to create safety critical applications with Java technology called Safety Critical Java (SCJ). However, neither RTSJ nor its profiles provide facilities to develop distributed realtime applications. This is an important issue, as most of the current and future systems will be distributed. The Distributed RTSJ (DRTSJ) Expert Group was created under the Java community process (JSR-50) in order to define appropriate abstractions to overcome this problem. Currently there is no formal specification. The aim of this thesis is to develop a communication middleware that is suitable for the development of distributed hard real-time systems in Java, based on the integration between the RMI (Remote Method Invocation) model and the HRTJ profile. It has been designed and implemented keeping in mind the main requirements such as the predictability and reliability in the timing behavior and the resource usage. iThe design starts with the definition of a computational model which identifies among other things: the communication model, most appropriate underlying network protocols, the analysis model, and a subset of Java for hard real-time systems. In the design, the remote references are the basic means for building distributed applications which are associated with all non-functional parameters and resources needed to implement synchronous or asynchronous remote invocations with real-time attributes. The proposed middleware separates the resource allocation from the execution itself by defining two phases and a specific threading mechanism that guarantees a suitable timing behavior. It also includes mechanisms to monitor the functional and the timing behavior. It provides independence from network protocol defining a network interface and modules. The JRMP protocol was modified to include two phases, non-functional parameters, and message size optimizations. Although serialization is one of the fundamental operations to ensure proper data transmission, current implementations are not suitable for hard real-time systems and there are no alternatives. This thesis proposes a predictable serialization that introduces a new compiler to generate optimized code according to the computational model. The proposed solution has the advantage of allowing us to schedule the communications and to adjust the memory usage at compilation time. In order to validate the design and the implementation a demanding validation process was carried out with emphasis in the functional behavior, the memory usage, the processor usage (the end-to-end response time and the response time in each functional block) and the network usage (real consumption according to the calculated consumption). The results obtained in an industrial application developed by Thales Avionics (a Flight Management System) and in exhaustive tests show that the design and the prototype are reliable for industrial applications with strict timing requirements. Los sistemas empotrados y distribuidos de tiempo real son cada vez más importantes para la sociedad. Su demanda aumenta y cada vez más dependemos de los servicios que proporcionan. Los sistemas de alta integridad constituyen un subconjunto de gran importancia. Se caracterizan por que un fallo en su funcionamiento puede causar pérdida de vidas humanas, daños en el medio ambiente o cuantiosas pérdidas económicas. La necesidad de satisfacer requisitos temporales estrictos, hace más complejo su desarrollo. Mientras que los sistemas empotrados se sigan expandiendo en nuestra sociedad, es necesario garantizar un coste de desarrollo ajustado mediante el uso técnicas adecuadas en su diseño, mantenimiento y certificación. En concreto, se requiere una tecnología flexible e independiente del hardware. La evolución de las redes y paradigmas de comunicación, así como la necesidad de mayor potencia de cómputo y de tolerancia a fallos, ha motivado la interconexión de dispositivos electrónicos. Los mecanismos de comunicación permiten la transferencia de datos con alta velocidad de transmisión. En este contexto, el concepto de sistema distribuido ha emergido como sistemas donde sus componentes se ejecutan en varios nodos en paralelo y que interactúan entre ellos mediante redes de comunicaciones. Un concepto interesante son los sistemas de tiempo real neutrales respecto a la plataforma de ejecución. Se caracterizan por la falta de conocimiento de esta plataforma durante su diseño. Esta propiedad es relevante, por que conviene que se ejecuten en la mayor variedad de arquitecturas, tienen una vida media mayor de diez anos y el lugar ˜ donde se ejecutan puede variar. El lenguaje de programación Java es una buena base para el desarrollo de este tipo de sistemas. Por este motivo se ha creado RTSJ (Real-Time Specification for Java), que es una extensión del lenguaje para permitir el desarrollo de sistemas de tiempo real. Sin embargo, RTSJ no proporciona facilidades para el desarrollo de aplicaciones distribuidas de tiempo real. Es una limitación importante dado que la mayoría de los actuales y futuros sistemas serán distribuidos. El grupo DRTSJ (DistributedRTSJ) fue creado bajo el proceso de la comunidad de Java (JSR-50) con el fin de definir las abstracciones que aborden dicha limitación, pero en la actualidad aun no existe una especificacion formal. El objetivo de esta tesis es desarrollar un middleware de comunicaciones para el desarrollo de sistemas distribuidos de tiempo real en Java, basado en la integración entre el modelo de RMI (Remote Method Invocation) y el perfil HRTJ. Ha sido diseñado e implementado teniendo en cuenta los requisitos principales, como la predecibilidad y la confiabilidad del comportamiento temporal y el uso de recursos. El diseño parte de la definición de un modelo computacional el cual identifica entre otras cosas: el modelo de comunicaciones, los protocolos de red subyacentes más adecuados, el modelo de análisis, y un subconjunto de Java para sistemas de tiempo real crítico. En el diseño, las referencias remotas son el medio básico para construcción de aplicaciones distribuidas las cuales son asociadas a todos los parámetros no funcionales y los recursos necesarios para la ejecución de invocaciones remotas síncronas o asíncronas con atributos de tiempo real. El middleware propuesto separa la asignación de recursos de la propia ejecución definiendo dos fases y un mecanismo de hebras especifico que garantiza un comportamiento temporal adecuado. Además se ha incluido mecanismos para supervisar el comportamiento funcional y temporal. Se ha buscado independencia del protocolo de red definiendo una interfaz de red y módulos específicos. También se ha modificado el protocolo JRMP para incluir diferentes fases, parámetros no funcionales y optimizaciones de los tamaños de los mensajes. Aunque la serialización es una de las operaciones fundamentales para asegurar la adecuada transmisión de datos, las actuales implementaciones no son adecuadas para sistemas críticos y no hay alternativas. Este trabajo propone una serialización predecible que ha implicado el desarrollo de un nuevo compilador para la generación de código optimizado acorde al modelo computacional. La solución propuesta tiene la ventaja que en tiempo de compilación nos permite planificar las comunicaciones y ajustar el uso de memoria. Con el objetivo de validar el diseño e implementación se ha llevado a cabo un exigente proceso de validación con énfasis en: el comportamiento funcional, el uso de memoria, el uso del procesador (tiempo de respuesta de extremo a extremo y en cada uno de los bloques funcionales) y el uso de la red (consumo real conforme al estimado). Los buenos resultados obtenidos en una aplicación industrial desarrollada por Thales Avionics (un sistema de gestión de vuelo) y en las pruebas exhaustivas han demostrado que el diseño y el prototipo son fiables para aplicaciones industriales con estrictos requisitos temporales.
Resumo:
En los últimos años se han desarrollado una amplia variedad de herramientas educativas para la docencia. En especial, los laboratorios virtuales y remotos, como medios de educación, se van imponiendo en varios campos de la docencia. La teoría de control no está ajena a este desarrollo y son cada día más las universidades que implementan estas herramientas con el objetivo de optimizar sus recursos. Por ello, en esta tesis, se realiza un análisis de varias de las plataformas de laboratorios virtuales y remotos actuales. Este estudio sirvió de base para la implementación del Sistema de Laboratorios a Distancia (SLD). El Sistema de Laboratorios a Distancia tiene como ventajas fundamentales la independencia entre las estaciones de trabajo y el servidor, lo que permite que se puedan compartir recursos entre lugares distantes, a través de Internet. Además, la posibilidad de tener más de una estación de trabajo, con la misma práctica, controladas por el mismo servidor, lo que le brinda un mayor paralelismo. Por último, mencionar el hecho de permitir la realización de prácticas en tiempo real. En esta tesis se detalla la implementación de las prácticas remotas para el Sistema de Laboratorios a Distancia usadas en la asignatura de Regulación Automática durante los cursos 2008-2009 al 2010-2011. Estas prácticas fueron utilizadas, además de para las actividades prácticas de laboratorio, en el desarrollo de un proyecto de control, actividad ejecutada por los alumnos con un alto valor formativo. También se describen los trabajos prácticos desarrollados en el curso mediante el uso de AulaWeb. Se propone una metodología que se nutre de los resultados de cada curso con vistas a su mejoramiento. La realización de prácticas de forma presencial y remota permite combinar las ventajas de ambos métodos. La realización presencial de prácticas en el laboratorio tiene un gran valor formativo para los alumnos, permitiéndole conocer y manipular los equipos físicos con los que trabaja. Una vez que el alumno está familiarizado con los sistemas que utiliza puede trabajar con ellos a distancia, con las ventajas que ello conlleva de puesta a punto de los equipos y optimización de los recursos. El tiempo efectivo de uso de los sistemas físicos suele ser reducido, ya que la programación y captura de datos suele requerir entre 10 y 20 minutos. La realización de trabajos a distancia ahorra tiempo para el alumno a la vez que favorece el uso compartido de recursos. Otro aspecto de interés que surge al realizar actividades remotas es que no se limita el tiempo de utilización de los equipos, los alumnos pueden manipularlos sin restricciones de tiempo hasta que consideren que han alcanzado los objetivos deseados. La metodología aplicada permite la adquisición de competencias en los alumnos, específicamente las competencias para diseñar y ejecutar experimentos de control; así como analizar críticamente sus resultados. Todo desde un punto de vista de trabajo en equipo, y de forma colaborativa haciendo uso de las herramientas educativas AulaWeb y el Sistema de Laboratorios a Distancia (SLD) para la implementación de los experimentos remotos sobre equipos reales. Esta tesis se ajusta y da respuesta a los objetivos definidos como prioritarios por la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid en sus líneas de prioritarias para la Innovación Educativa. De igual forma cumple con el modelo educativo de la Universidad Politécnica de Madrid (Plan de eficiencia educativa), así como con las recomendaciones sobre competencias del Consejo de Acreditación de Ingeniería y Tecnología (Accreditation Board for Engineering and Technology, ABET). Se analizan los datos recogidos mediante la observación participante, las encuestas y las entrevistas grupales por cada curso académico en los que se realizó la investigación, y se proponen los cambios y mejoras para el próximo período académico. De igual forma se exponen los resultados de los alumnos en los tres cursos que duró la investigación. Esta investigación se ha desarrollado en el marco de dos proyectos de Innovación Educativa financiados por la Universidad Politécnica de Madrid. Además, ha formado parte del Programa de Cooperación Universitaria Institucional (IUC) de la Universidad Central “Marta Abreu” de Las Villas (UCLV) con el Consejo de Universidades Flamencas (VLIR).
Resumo:
El avance de la presión antrópica sobre las márgenes de los cauces, y la creciente dificultad técnica, política y social para ejecutar nuevos proyectos de grandes presas, promueve la necesidad de utilizar más eficientemente los sistemas de control de avenidas existentes. En el presente trabajo se presenta una metodología de análisis para evaluar y comparar las estrategias de gestión de embalses, considerando su operación individual, a fin de establecer la más adecuada. En particular se comparan dos modos de gestión ante situación de avenidas: el Método de Evaluación Volumétrica (MEV) desarrollado por Girón (1988), de amplia difusión en España, y un modelo de optimización de la gestión mediante Programación Lineal Entera Mixta (PLEM). Para ello se ha implementado un entorno de cálculo con estructura modular. El primer módulo permite generar un conjunto representativo de hidrogramas de entrada a los embalses mediante simulación de Monte Carlo. Luego, dos módulos que funcionan en paralelo simulan la gestión del embalse según las dos estrategias mencionadas (MEV y PLEM). Finalmente, se evalúa el comportamiento de ambas estrategias ante el conjunto de solicitaciones hidrológicas generado. Se propone el empleo del Índice de Riesgo Global (I1), que pondera el resultado de la estrategia de gestión frente a un conjunto de hidrogramas de solicitación. Dicho indicador tiene en cuenta el daño esperado debido a los caudales máximos vertidos y el riesgo para la presa debido a los niveles máximos alcanzados en el embalse. Para ello se analiza la función de distribución de probabilidad de las dos variables (máximo caudal vertido y máximo nivel alcanzado) para la población de hidrogramas analizada. El modelo PLEM se calibra empleando el índice I1. Este mismo índice es utilizado para comparar ambas estrategias, entendiendo como la más adecuada aquella que tenga asociado el menor I1. Este sistema de análisis se aplicó a tres embalses de la cuenca del río Segura, con diferentes características en lo referente al tipo y capacidad de aliviadero, volumen de embalse y de resguardo. En los tres casos se han obtenido mejores resultados con el modelo PLEM que con el modelo MEV, tanto en lo concerniente a caudales máximos vertidos como a los niveles máximos alcanzados, para todo el rango de avenidas analizado. Sin embargo, la diferencia entre ambas estrategias no es muy significativa y el MEV presenta características que lo hacen más adecuado para su empleo en tiempo real
Resumo:
Esta Tesis constituye una contribución a los Modelos y Metodologías para la Estimación de la Calidad Percibida por los Usuarios, o Calidad de Experiencia (QoE), a partir de Parámetros de Calidad y/o Rendimiento de Red y/o Servicio (QoS) en Servicios Multimedia, y específicamente en servicios Triple-Play (3P): servicios de Televisión (TV), Telefonía y Datos ofrecidos por un mismo operador como un paquete único. En particular, se centra en los servicios Triple-Play convergentes (desplegados sobre una Red de Transporte común basada en IP, gestionada por un único operador como un Sistema Autónomo (SA)), y la relación entre la Calidad Percibida por los usuarios de dichos servicios y los parámetros de rendimiento de la Red de Transporte IP subyacente. Específicamente, contribuye a la estimación ‘en línea’ (es decir, durante la prestación del servicio, en tiempo real o casi-real) de dicha calidad. La calidad de experiencia de los usuarios es un factor determinante para el éxito o fracaso de estos servicios, y su adecuada gestión resulta por tanto un elemento crucial para el despliegue exitoso de los mismos. La calidad de experiencia resulta fácil de entender, pero compleja de implementar en sistemas reales, debido principalmente a la dificultad de su modelado, evaluación, y traducción en términos de parámetros de calidad de servicio. Mientras que la calidad de servicio puede medirse, monitorizarse y controlarse fácilmente, la calidad de experiencia es todavía muy difícil de gestionar. Una metodología completa de gestión de la calidad de experiencia debe incluir al menos: monitorización de la experiencia de los usuarios durante el consumo del servicio; adaptación de la provisión de contenidos a las condiciones variables del contexto; predicción del nivel de degradación potencial de la calidad de experiencia; y recuperación de la degradación debida a cambios en el sistema. Para conseguir un control completo de la experiencia de los usuarios finales, todas estas tareas deben ser realizadas durante la prestación del servicio y de forma coordinada. Por lo tanto, la capacidad de medir, estimar y monitorizar la calidad percibida en tiempo casi-real, y relacionarla con las condiciones de servicio de la red, resulta crítica para los proveedores de este tipo de servicios, especialmente en el caso de los más exigentes, tales como la difusión de Televisión sobre IP (IPTV). Para ello se ha seleccionado un modelo ya existente, de tipo matricial, para la estimación de la Calidad Global en servicios complejos a partir de los parámetros de funcionamiento interno de los agentes que proporcionan los servicios. Este modelo, definido en términos de servicios y sus componentes, percepciones de los usuarios, capacidades de los agentes, indicadores de rendimiento y funciones de evaluación, permite estimar la calidad global de un conjunto de servicios convergentes, tal como la perciben uno o más grupos de usuarios. Esto se consigue combinando los resultados de múltiples modelos parciales, tales que cada uno de ellos proporciona la valoración de la calidad percibida para uno de los servicios componentes, obtenida a partir de un conjunto de parámetros de rendimiento y/o Calidad de Servicio de la red de transporte IP convergente. El modelo se basa en la evaluación de las percepciones de los usuarios a partir de Factores de Valoración, calculados a partir de Indicadores de Rendimiento, que se derivan a su vez de Parámetros de Funcionamiento Interno correspondientes a las capacidades de los distintos agentes que intervienen en la prestación de los servicios. El trabajo original incluye la aplicación del modelo a un servicio 3P (datos+voz+vídeo). En este trabajo, sin embargo, el servicio de vídeo (Vídeo bajo Demanda, VoD) se considera poco importante y es finalmente ignorado. En el caso de los usuarios residenciales, el servicio de voz (Voz sobre IP, VoIP) se considera asimismo poco importante y es también ignorado, por lo que el servicio global se reduce finalmente a los servicios de datos (Acceso a Internet y juegos interactivos). Esta simplificación era razonable en su momento, pero la evolución del mercado de servicios convergentes ha hecho que en la actualidad las razones que la justificaban no sean ya aplicables. En esta Tesis, por lo tanto, hemos considerado un servicio ‘Triple-Play’ completo, incluyendo servicios de datos, voz y vídeo. Partiendo de dicho modelo, se ha procedido a actualizar los servicios considerados, eliminando los no relevantes e incluyendo otros no considerados, así como a incluir nuevos elementos (percepciones) para la estimación de la calidad de los servicios; actualizar, extender y/o mejorar los modelos de estimación de los servicios ya incluidos; incluir modelos de estimación para los nuevos servicios y elementos añadidos; desarrollar nuevos modelos de estimación para aquellos servicios o elementos para los que no existen modelos adecuados; y por último, extender, actualizar y/o mejorar los modelos para la estimación de la calidad global. Con todo ello se avanza apreciablemente en la modelización y estimación de la Calidad de Experiencia (QoE) en Servicios Multimedia a partir de Parámetros de Calidad de Servicio (QoS) y/o Rendimiento de la Red, y específicamente en la estimación ‘en línea’, en tiempo casi-real, de dicha calidad en servicios Triple-Play convergentes. La presente Tesis Doctoral se enmarca en la línea de investigación sobre Calidad de Servicio del grupo de Redes y Servicios de Telecomunicación e Internet, dentro del Departamento de Ingeniería de Sistemas Telemáticos (DIT) de la Universidad Politécnica de Madrid (UPM).