1000 resultados para INGENIERÍA DEL SOFTWARE
Resumo:
Las metodologías para el desarrollo de productos se han convertido en herramientas de vital importancia en el ámbito del desarrollo software debido a que su implantación nos permite estructurar, planificar y controlar el proceso de desarrollo completo de un determinado proyecto y obtener como resultado un producto final exitoso. Por tanto, la elección de una metodología para su implantación en una determinada empresa, es un proceso que requiere especial atención, ya que del éxito o el fracaso de su establecimiento dependerán en gran medida los resultados de los diversos procesos de desarrollo de esa entidad. El trabajo de fin de grado extractado en este documento, tiene como objetivo principal realizar un estudio sobre algunas de las diversas metodologías basadas en líneas de productos software (LPS) presentes en el mercado, tales como el modelo TWIN, el modelo WATCH, el modelo ESPLEP o el modelo SEI. Dicho estudio y la posterior comparativa de los modelos, persigue el propósito de adaptar y concretar alguna de estas metodologías al ciclo de vida de desarrollo habitual en el mercado de la ingeniería de software y más concretamente a los productos desarrollados por la empresa everis. Sin embargo, tras la realización de la comparativa, se llego a la conclusión de que las diferentes características que ofrecen las metodologías a estudio, no satisfacen por completo las necesidades específicas demandadas por everis. Por este motivo, al no poder adaptar ninguno de los modelos, el objetivo principal paso a ser la creación de una metodología propia que aunara las características más importantes de cada uno de los modelos estudiados y se compaginara con las particularidades proporcionadas por el modelo COM exclusivo de everis, obteniendo como resultado un modelo propio de desarrollo ágil, basado en líneas de productos software. Por último, una vez creada la nueva metodología, se buscaba alcanzar dos objetivos finales. El primero es la realización de un pequeño estudio con el propósito de conocer las diversas herramientas “open source” que puedan servir como base o apoyo para la metodología. Y el segundo, realizar un estudio de aplicabilidad del nuevo modelo en un proyecto simulado con el fin de comprobar su efectividad.
Resumo:
Este libro trata exactamente de lo que dice su título. Como primera impresión, a algunas personas puede parecerles innecesario publicar un texto sobre fundamentos en una época en que la informática ha llegado en su difusión casi a formar parte material del mobiliario hogareño. Además de este efecto distributivo sobre la sociedad, los espectaculares progresos tecnológicos han producido un crecimiento desbordante de la especialización. Los sistemas operativos, las bases de datos, los lenguajes concurrentes, la programación lógica, la inteligencia artificial, la arquitectura de ordenadores, las redes, las herramientas de ayuda para ingeniería de software y tantas otras más específicas e instrumentales son áreas de trabajo o técnicas que por sí solas requieren esfuerzos considerables por parte de quienes pretenden estudiar y seguir su evolución.
Resumo:
En el presente Trabajo de Fin de Grado se abordan diferentes aspectos del diseño, implementación y vericación de un sistema de tiempo real de características especiales, el satélite UPMSat-2. Este proyecto, llevado a cabo por un grupo de trabajo formado por profesores, alumnos y personal de la Universidad Politecnica de Madrid (UPM), tiene como objetivo el desarrollo de un microsatélite como plataforma de demostración tecnológica en órbita. Parte de este grupo de trabajo es el Grupo de Sistemas de Tiempo Real y Arquitectura de Servicios Telemáticos (STRAST), del cual el alumno forma parte y que tiene a cargo el diseño e implementación tanto del software de abordo como del software de tierra. Dentro de estas asignaciones, el alumno ha trabajado en tres aspectos principales: el diseño e implementación de diferentes manejadores de dispositivos, el diseño de un algoritmo para la gestión de la memoria no volátil y la configuración y prueba de un sistema de validación de software para un subsistema del satélite. Tanto la memoria de estas tareas como las bases y fundamentos tecnológicos aplicados se desarrollan en el documento. ------------------------------------------------ ----------------------------------------------------------------------------------- Diferent aspects of the design, implementation and validation of an specific Real Time System, the UPMSat-2 satellite, are described in this final report. UPMSat-2 project is aimed at developing an experimental microsatellite that can be used as a technology demonstrator for several research groups at UPM. The Real-Time Systems Group at UPM (STRAST) is responsible for designing and building all the on-board and ground-segment software for the satellite. In relation to this, three main task have been carried out and are described in this document: the design and implementation of three diferent device drivers, the design of an algorithm to manage the nonvolatile memory and the configuration and test of a software validation facility to test the UPMSat-2 Attitude Determination and Control System (ADCS) subsystem. Detailed information of these tasks and their technological basis are presented in the rest of the document.
Resumo:
El rendimiento de una instalación en función de la calidad del hardware y del software, de la oportunidad de la configuración escogida y del grupo de personas que orienta, utiliza y explota la instalación.
Resumo:
Los sistemas técnicos son cada vez más complejos, incorporan funciones más avanzadas, están más integrados con otros sistemas y trabajan en entornos menos controlados. Todo esto supone unas condiciones más exigentes y con mayor incertidumbre para los sistemas de control, a los que además se demanda un comportamiento más autónomo y fiable. La adaptabilidad de manera autónoma es un reto para tecnologías de control actualmente. El proyecto de investigación ASys propone abordarlo trasladando la responsabilidad de la capacidad de adaptación del sistema de los ingenieros en tiempo de diseño al propio sistema en operación. Esta tesis pretende avanzar en la formulación y materialización técnica de los principios de ASys de cognición y auto-consciencia basadas en modelos y autogestión de los sistemas en tiempo de operación para una autonomía robusta. Para ello el trabajo se ha centrado en la capacidad de auto-conciencia, inspirada en los sistemas biológicos, y se ha explorado la posibilidad de integrarla en la arquitectura de los sistemas de control. Además de la auto-consciencia, se han explorado otros temas relevantes: modelado funcional, modelado de software, tecnología de los patrones, tecnología de componentes, tolerancia a fallos. Se ha analizado el estado de la técnica en los ámbitos pertinentes para las cuestiones de la auto-consciencia y la adaptabilidad en sistemas técnicos: arquitecturas cognitivas, control tolerante a fallos, y arquitecturas software dinámicas y computación autonómica. El marco teórico de ASys existente de sistemas autónomos cognitivos ha sido adaptado para servir de base para este análisis de autoconsciencia y adaptación y para dar sustento conceptual al posterior desarrollo de la solución. La tesis propone una solución general de diseño para la construcción de sistemas autónomos auto-conscientes. La idea central es la integración de un meta-controlador en la arquitectura de control del sistema autónomo, capaz de percibir la estado funcional del sistema de control y, si es necesario, reconfigurarlo en tiempo de operación. Esta solución de metacontrol se ha formalizado en cuatro patrones de diseño: i) el Patrón Metacontrol, que define la integración de un subsistema de metacontrol, responsable de controlar al propio sistema de control a través de la interfaz proporcionada por su plataforma de componentes, ii) el patrón Bucle de Control Epistémico, que define un bucle de control cognitivo basado en el modelos y que se puede aplicar al diseño del metacontrol, iii) el patrón de Reflexión basada en Modelo Profundo propone una solución para construir el modelo ejecutable utilizado por el meta-controlador mediante una transformación de modelo a modelo a partir del modelo de ingeniería del sistema, y, finalmente, iv) el Patrón Metacontrol Funcional, que estructura el meta-controlador en dos bucles, uno para el control de la configuración de los componentes del sistema de control, y otro sobre éste, controlando las funciones que realiza dicha configuración de componentes; de esta manera las consideraciones funcionales y estructurales se desacoplan. La Arquitectura OM y el metamodelo TOMASys son las piezas centrales del marco arquitectónico desarrollado para materializar la solución compuesta de los patrones anteriores. El metamodelo TOMASys ha sido desarrollado para la representación de la estructura y su relación con los requisitos funcionales de cualquier sistema autónomo. La Arquitectura OM es un patrón de referencia para la construcción de una metacontrolador integrando los patrones de diseño propuestos. Este meta-controlador se puede integrar en la arquitectura de cualquier sistema control basado en componentes. El elemento clave de su funcionamiento es un modelo TOMASys del sistema decontrol, que el meta-controlador usa para monitorizarlo y calcular las acciones de reconfiguración necesarias para adaptarlo a las circunstancias en cada momento. Un proceso de ingeniería, complementado con otros recursos, ha sido elaborado para guiar la aplicación del marco arquitectónico OM. Dicho Proceso de Ingeniería OM define la metodología a seguir para construir el subsistema de metacontrol para un sistema autónomo a partir del modelo funcional del mismo. La librería OMJava proporciona una implementación del meta-controlador OM que se puede integrar en el control de cualquier sistema autónomo, independientemente del dominio de la aplicación o de su tecnología de implementación. Para concluir, la solución completa ha sido validada con el desarrollo de un robot móvil autónomo que incorpora un meta-controlador con la Arquitectura OM. Las propiedades de auto-consciencia y adaptación proporcionadas por el meta-controlador han sido validadas en diferentes escenarios de operación del robot, en los que el sistema era capaz de sobreponerse a fallos en el sistema de control mediante reconfiguraciones orquestadas por el metacontrolador. ABSTRACT Technical systems are becoming more complex, they incorporate more advanced functionalities, they are more integrated with other systems and they are deployed in less controlled environments. All this supposes a more demanding and uncertain scenario for control systems, which are also required to be more autonomous and dependable. Autonomous adaptivity is a current challenge for extant control technologies. The ASys research project proposes to address it by moving the responsibility for adaptivity from the engineers at design time to the system at run-time. This thesis has intended to advance in the formulation and technical reification of ASys principles of model-based self-cognition and having systems self-handle at runtime for robust autonomy. For that it has focused on the biologically inspired capability of self-awareness, and explored the possibilities to embed it into the very architecture of control systems. Besides self-awareness, other themes related to the envisioned solution have been explored: functional modeling, software modeling, patterns technology, components technology, fault tolerance. The state of the art in fields relevant for the issues of self-awareness and adaptivity has been analysed: cognitive architectures, fault-tolerant control, and software architectural reflection and autonomic computing. The extant and evolving ASys Theoretical Framework for cognitive autonomous systems has been adapted to provide a basement for this selfhood-centred analysis and to conceptually support the subsequent development of our solution. The thesis proposes a general design solution for building self-aware autonomous systems. Its central idea is the integration of a metacontroller in the control architecture of the autonomous system, capable of perceiving the functional state of the control system and reconfiguring it if necessary at run-time. This metacontrol solution has been formalised into four design patterns: i) the Metacontrol Pattern, which defines the integration of a metacontrol subsystem, controlling the domain control system through an interface provided by its implementation component platform, ii) the Epistemic Control Loop pattern, which defines a modelbased cognitive control loop that can be applied to the design of such a metacontroller, iii) the Deep Model Reflection pattern proposes a solution to produce the online executable model used by the metacontroller by model-to-model transformation from the engineering model, and, finally, iv) the Functional Metacontrol pattern, which proposes to structure the metacontroller in two loops, one for controlling the configuration of components of the controller, and another one on top of the former, controlling the functions being realised by that configuration; this way the functional and structural concerns become decoupled. The OM Architecture and the TOMASys metamodel are the core pieces of the architectural framework developed to reify this patterned solution. The TOMASys metamodel has been developed for representing the structure and its relation to the functional requirements of any autonomous system. The OM architecture is a blueprint for building a metacontroller according to the patterns. This metacontroller can be integrated on top of any component-based control architecture. At the core of its operation lies a TOMASys model of the control system. An engineering process and accompanying assets have been constructed to complete and exploit the architectural framework. The OM Engineering Process defines the process to follow to develop the metacontrol subsystem from the functional model of the controller of the autonomous system. The OMJava library provides a domain and application-independent implementation of an OM Metacontroller than can be used in the implementation phase of OMEP. Finally, the complete solution has been validated in the development of an autonomous mobile robot that incorporates an OM metacontroller. The functional selfawareness and adaptivity properties achieved thanks to the metacontrol system have been validated in different scenarios. In these scenarios the robot was able to overcome failures in the control system thanks to reconfigurations performed by the metacontroller.
Resumo:
La tesis contiene un modelo dirigido a servir de soporte a la toma de decisiones para la mejora de la gestión empresarial en las pymes. Para la construcción del modelo, se dividió la gestión empresarial en doce (12) subsistemas de gestión, a saber: Gestión Estratégica, Mercadeo, Gestión Productiva, Recursos Humanos, Gestión Financiera, Logística, Mantenimiento, Gestión de la Calidad, Seguridad y Salud Laboral, Gestión de la Información y la Comunicación, Innovación y Gestión Ambiental. El enfoque teórico utilizado es que en cada uno de estos subsistemas está contenido el ciclo formado por los procesos Planificar/Hacer/Verificar/Actuar (PHVA); la hipótesis de partida es que existe una correlación positiva significativa entre los procesos o variables exógenas Planificar, Hacer, Verificar, Actuar y el proceso o variable endógena Gestión. Cualquier mejora que se introduzca en los procesos del ciclo tendrá un efecto positivo en la gestión y por ende, en los resultados de la organización. Para la determinación de los factores o ítems que conforman cada uno de los procesos del ciclo PHVA, se llevó a cabo una revisión del estado del arte para cada subsistema de gestión; posteriormente, los ítems seleccionados (335 en total) fueron validados por un equipo de expertos en el tema. Para recopilar los datos necesarios que soportan estadísticamente al modelo, se llevó a cabo un estudio empírico, mediante la aplicación de cuestionarios y entrevistas no estructuradas al personal perteneciente a un grupo de ciento veinticinco (125) pymes del sector industrial, en el Estado Bolívar, Venezuela. El estudio empírico, de tipo transversal, abarcó un período de tres años, en el cual se entrevistaron a 4.500 individuos; la información obtenida se utilizó además, para caracterizar la gestión de las pymes industriales. El análisis de datos comprendió el análisis descriptivo de los mismos, estimación de fiabilidad, análisis factorial exploratorio y confirmatorio, análisis de coeficientes de correlación y de regresión, a través del software SPSS v.20. Para examinar las relaciones causales entre los procesos P/H/V/A y cada uno de los subsistemas de gestión, se utilizó la técnica del análisis de senderos (path analysis), con el uso de AMOS v.20. Los resultados del análisis estadístico señalan que los procesos de ejecución y planificación (y por ende las variables que contienen) tienen el mayor impacto significativo sobre la gestión, respecto a los procesos de verificación y mejora continua, en el sector industrial estudiado. El prototipo de modelo de sistema inteligente diseñado cuenta con una base de conocimientos, construida a partir de la experiencia de los expertos y la revisión del estado del arte; una base de hechos representada por los resultados de la evaluación aplicada a cada empresa, y un motor de inferencia, el cual identifica las áreas de mejora y propone las soluciones para resolver los problemas de mayor impacto. El aporte de esta investigación puede ser valorado de dos maneras: desde el punto de vista empresarial, en el sentido de proveer a las pymes de una herramienta para evaluar y mejorar su gestión, y académico, al proporcionar una guía para comprender mejor la interrelación de las variables envueltas en los diversos procesos de gestión de una empresa.
Resumo:
La misión UPMSat-2 tiene por objetivo la construcción y el lanzamiento de un microsatélite experimental que sirva como plataforma de educación e investigación en diversos aspectos de la ingeniería de sistemas espaciales. En este artículo se describe la arquitectura y el diséño del software de tiempo real que realiza el control de actitud del satélite. La arquitectura está basada en modelos, y las herramientas utilizadas permiten la validación de las propiedades de tiempo real y la generación de código de forma casi totalmente automática
Resumo:
En el marco de SERELAREFA (Semillas REd LAtina Recuperación Ecosistemas Fluviales y Acuáticos) se ha propuesto el "Corredor fluvial río Tinguiririca". Esta iniciativa persigue llegar a definir una franja de territorio donde se le permita al río expresar su dinámica natural , pero controlándola con intervenciones de ingeniería integradas en el paisaje de manera que permita un desarrollo económico más seguro en las zonas aledañas y contar con los servicios ambientales brindados por un ecosistema en buen estado. Esta comunicación presenta la problemática del río Tinguiririca y la simulación hidráulica de un tramo del mismo río en la localidad de San Fernando en el marco del diseño del Corredor Fluvial Tinguririca. Se realizó un levantamiento topográfico de detalle del tramo y se simularon caudales crecientes en 2D con Infoworks ICM.
Resumo:
En este trabajo hemos estudiado el comportamiento térmico de dos ríos similares en cuanto a altitud, orientación, litología, pendiente y sombreado. Se ha comparado el régimen diario de temperatura de los ríos Cega (no regulado) y Pirón (regulado) en sus zonas de cabecera con el objeto de detectar las alteraciones térmicas que provoca la existencia y explotación del embalse de Torrecaballeros sobre el río Pirón. El río Pirón es afluente del río Cega. En el río Pirón el comportamiento térmico ha sido mucho más fluctuante respecto al Cega, con un patrón anual característico de fuertes descensos de temperatura en primavera y la segunda mitad del verano y un importante incremento de la misma durante la primera mitad del verano. Las diferencias observadas en el incremento de temperatura en el Pirón respecto a los registrados en el Cega, indican que en el río regulado pueden producirse alteraciones en los ritmos biológicos de las especies fluviales, especialmente en la primera mitad del verano. En este periodo se produce un enfriamiento muy acusado del agua del río en el tramo aguas abajo de la presa que rompe de modo brusco la tendencia natural de la estacionalidad a que los organismos fluviales están adaptados.
Resumo:
El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.
Resumo:
El trabajo ha sido realizado dentro del marco de los proyectos EURECA (Enabling information re-Use by linking clinical REsearch and Care) e INTEGRATE (Integrative Cancer Research Through Innovative Biomedical Infrastructures), en los que colabora el Grupo de Informática Biomédica de la UPM junto a otras universidades e instituciones sanitarias europeas. En ambos proyectos se desarrollan servicios e infraestructuras con el objetivo principal de almacenar información clínica, procedente de fuentes diversas (como por ejemplo de historiales clínicos electrónicos de hospitales, de ensayos clínicos o artículos de investigación biomédica), de una forma común y fácilmente accesible y consultable para facilitar al máximo la investigación de estos ámbitos, de manera colaborativa entre instituciones. Esta es la idea principal de la interoperabilidad semántica en la que se concentran ambos proyectos, siendo clave para el correcto funcionamiento del software del que se componen. El intercambio de datos con un modelo de representación compartido, común y sin ambigüedades, en el que cada concepto, término o dato clínico tendrá una única forma de representación. Lo cual permite la inferencia de conocimiento, y encaja perfectamente en el contexto de la investigación médica. En concreto, la herramienta a desarrollar en este trabajo también está orientada a la idea de maximizar la interoperabilidad semántica, pues se ocupa de la carga de información clínica con un formato estandarizado en un modelo común de almacenamiento de datos, implementado en bases de datos relacionales. El trabajo ha sido desarrollado en el periodo comprendido entre el 3 de Febrero y el 6 de Junio de 2014. Se ha seguido un ciclo de vida en cascada para la organización del trabajo realizado en las tareas de las que se compone el proyecto, de modo que una fase no puede iniciarse sin que se haya terminado, revisado y aceptado la fase anterior. Exceptuando la tarea de documentación del trabajo (para la elaboración de esta memoria), que se ha desarrollado paralelamente a todas las demás. ----ABSTRACT--- The project has been developed during the second semester of the 2013/2014 academic year. This Project has been done inside EURECA and INTEGRATE European biomedical research projects, where the GIB (Biomedical Informatics Group) of the UPM works as a partner. Both projects aim is to develop platforms and services with the main goal of storing clinical information (e.g. information from hospital electronic health records (EHRs), clinical trials or research articles) in a common way and easy to access and query, in order to support medical research. The whole software environment of these projects is based on the idea of semantic interoperability, which means the ability of computer systems to exchange data with unambiguous and shared meaning. This idea allows knowledge inference, which fits perfectly in medical research context. The tool to develop in this project is also "semantic operability-oriented". Its purpose is to store standardized clinical information in a common data model, implemented in relational databases. The project has been performed during the period between February 3rd and June 6th, of 2014. It has followed a "Waterfall model" of software development, in which progress is seen as flowing steadily downwards through its phases. Each phase starts when its previous phase has been completed and reviewed. The task of documenting the project‟s work is an exception; it has been performed in a parallel way to the rest of the tasks.
Resumo:
El presente Trabajo de Fin de Grado se enmarca dentro del sistema web de la asignaturade Procesadores de Lenguajes perteneciente al departamento de Lenguajes y Sistemas Informáticos e Ingeniería de Software de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. Este Trabajo consta de varias líneas de desarrollo, que se engloban dentro de dicho marco y surgen de la necesidad de mejorar el sistema para hacer que éste sea accesible a todo tipo de usuarios, y a la vez se mantenga actualizado según las tecnologías más recientes. En primer lugar, el presente Trabajo se centra en estudiar la accesibilidad de la web de la asignatura de Procesadores de Lenguajes siguiendo las Pautas de Accesibilidad al Contenido en la Web (Web Content Accessibility Guidelines, WCAG) en su segunda versión (2.0). Para ello, se ha llevado a cabo un informe detallado que recoge los resultados de este estudio sobre los criterios de aceptación de las WCAG, y posteriormente se han implementado los cambios necesarios para solucionar los criterios erróneos detectados. De esta manera se puede asegurar que la web es accesible para personas con distintos tipos de discapacidad. Así mismo, y siguiendo el criterio de conseguir una web más accesible, se ha adaptado el sistema a tecnologías más recientes. En el momento de empezar el Trabajo, el sistema web contaba con una serie de páginas estáticas (XHTML 1.1 + CSS 2.1) y una serie de páginas dinámicas (XHTML 1.1 + CSS 2.1 + PHP + MySQL). Estas páginas han sido actualizadas a sus versiones más recientes (HTML 5 y CSS 3). La web cuenta también con un sistema de creación de grupos de prácticas que facilita su gestión tanto a profesores como a alumnos, además de facilitar el alta de los estudiantes de la asignatura. El sistema posee además un módulo de administración para que el personal docente pueda gestionarlo. Sobre este sistema web implantado en la actualidad, se ha realizado una batería de pruebas para garantizar su correcto funcionamiento, y se han corregido todos los errores detectados durante dicho proceso. Al mismo tiempo, se han implementado nuevas funcionalidades que han ido surgiendo desde la creación del sistema hasta el momento presente. Por último, se ha desarrollado un sistema de avisos RSS que permite a los alumnos de la asignatura permanecer al corriente de los avisos y noticias publicados en el tablón de anuncios de la web. Este sistema de avisos RSS servirá también para otros sitios web del Centro que utilicen el tablón de avisos multipropósito y podrá ser visualizado tanto en inglés como en español. ---ABSTRACT---The present final year project is set within the framework of the subject “Procesadores de Lenguajes”, that belongs to the “Computer Languages and Systems and Software Engineering” department of the Escuela Técnica Superior de Ingenieros Informáticos of the Polytechnic University of Madrid. This study is divided in several angles of development that are included inside the abovementioned framework. They all emerge from the necessity of upgrading the system in order to make it accessible to everybody and the same time bringing it up to date to the latest technologies. First of all, it is focused on the study of the accessibility of the web site of the subject Procesadores de Lenguajes, following the second version of the Web Content Accessibility Guidelines (WCAG 2.0). In order to do this, an in-depth report containing the results of the study on the acceptance criteria of the WCAG has been developed. Right afterwards, necessary changes were implemented to correct the erroneous criteria detected. Similarly, and following the criteria of achieving a more accessible web site, the system has been adapted to updated technologies. At the start point, the web system consisted in a series of static pages (XHTML 1.1 + CSS 2.1) and a series of dynamic ones (XHTML 1.1 + CSS 2.1 + PHP + MySQL). These pages have been updated to their latest versions (HTML 5 and CSS 3). The web site has a system for the creation of working groups that makes their management easier, both for the teachers and for the students, as well as the registration process. The teaching staff can also manage the system through the administration module. Over the current web system, sets of several tests have taken place in order to guarantee its correct functioning and all the errors that appeared have been corrected. Likewise, new functionalities have been implemented, and those have been arising since the creation of the system till the present time. Finally, an RSS alert system has been developed, allowing students to keep updated on the news and alerts published in the website noticeboard. This RSS alert system will be shared with other websites of the School using the multipurpose noticeboard, and will be available both in Spanish and English.
Resumo:
En la actualidad, y en todo el mundo, hay en desarrollo un muy importante número de proyectos de obras hidráulicas de diversa naturaleza (presas, canales, desaladoras, tanques de tormentas, centrales hidroeléctricas, obras de saneamiento, etc.), donde España es, en muchas ocasiones, el marco de referencia. En este artículo, se presentan algunas de las principales investigaciones en curso en el campo de la modelación física y numérica de la ingeniería de presas, con el objetivo de mejorar el conocimiento de los fenómenos hidráulicos que intervienen en su gestión y desarrollar nuevas herramientas de diseño que permitan dar solución a problemas hidráulicos complejos.
Resumo:
Tradicionalmente los planes de estudios de ingeniería civil implican la integración de diversas disciplinas formales en un nivel alto de conocimientos. Particularmente, la Ingeniería del Terreno, la Ordenación Territorial y el Medio Ambiente requieren sólidos conocimientos y habilidades en Geología aplicada, Geomorfología y Topografía. Estas disciplinas se han estudiado a fondo en los programas tradicionales de ingeniería civil, pero a menudo desconectadas entre ellas. Por otro lado, la Geomática es un campo emergente, como consecuencia de los avances en informática, comunicaciones y medición, así como en el campo de la de teledetección espacial y cuya formación es casi nula en dichos planes. El resultado es que el egresado en cualquiera de las ramas de ingeniería civil carece de aptitudes y competencias ante la solución de problemas basados en herramientas con un uso profundo de dichas técnicas geomáticas. Desde el Departamento de Ingeniería y Morfología del Terreno, de la ETSICCP de la UPM, entendemos que debe continuarse con el esfuerzo en la integración de la geología, la geomorfología y la geomática en ingeniería civil, apoyadas en los avances de tecnologías de la información. El trabajo presenta la experiencia y metodología propuesta en los dos últimos cursos, cuyos resultados son muy satisfactorios.
Resumo:
Los planes de estudios de ingeniería civil implican la integración de diversas disciplinas formales en un nivel alto de conocimientos. La Ingeniería del Terreno requiere sólidos conocimientos y habilidades en Geología aplicada, Geomorfología y Topografía. Estas disciplinas se han estudiado a fondo en los programas tradicionales de ingeniería civil, pero a menudo desconectadas entre ellas. El Departamento de Ingeniería y Morfología del Terreno, en la UPM, tiene a su cargo la enseñanza de estas disciplinas en las titulaciones de ingeniería civil, geológica y geodésica. El EEES proporciona un nuevo marco para una mejor integración de las disciplinas, a partir de la experiencia acumulada en más de 200 años de docencia. La Geomática es un campo emergente, como consecuencia de los avances en informática, comunicaciones y medición, así como en el campo de la de teledetección espacial. Se presenta la experiencia de integración de la geología, la geomorfología y la geomática en ingeniería civil, apoyadas en los avances de tecnologías de la información. Se promueve el trabajo en grupos con el fin de adquirir formación geológica a través de la geomática, así como un amplio entrenamiento en búsqueda y tratamiento de datos. Los primeros resultados se obtuvieron en el curso 2008-2009, siendo satisfactorios en cuando a la adquisición de conocimientos y el tiempo empleado en ello. Esta experiencia ha servido de base para la programación de las enseñanzas de Ingeniería del Terreno en los grados de ingeniero civil, geológico y geodésico adaptados al EEES en la UPM.