999 resultados para Requisitos técnicos
Resumo:
La Ingeniería de Requisitos (IR) es una actividad crucial en el desarrollo de software. La calidad del producto final queda supeditada a la captura de requisitos cuyo éxito depende, en buena parte, de las técnicas de educción utilizadas. Sin embargo, los ingenieros siguen teniendo dificultades para distinguir ventajas y limitaciones entre la gran cantidad de técnicas existentes. En este estudio se utiliza el emparrillado para conocer la percepción de los ingenieros noveles acerca de las técnicas de educción y su comparación con la visión experta. Los resultados, que muestran una sustancial diferencia entre ambas visiones, son la base para la modificación de estrategias formativas. Además, el análisis detallado de las características contextuales de la educción en IR facilitará la selección de la técnica más apropiada para un contexto dado.
Resumo:
Las entrevistas son las técnicas de elicitación más utilizadas en la Ingeniería de Requisitos (IR). Sin embargo, existen pocos trabajos de investigación centrados en estas técnicas y aún menos estudios experimentales. Recientemente hemos experimentado para analizar la efectividad de las entrevistas estructuradas y no estructuradas. Los resultados se combinaron con otros de estudios experimentales realizados en el campo de Sistemas de Información. Para ello se aplicó el meta-análisis, con el objetivo de desarrollar directrices para usar las entrevistas en IR. Sin embargo, se han obtenido pocas debido a la diversidad, en términos de variables respuesta, de los estudios primarios. Aunque los estudios meta-analizados parecen similares según sus diseños, fijándonos en las amenazas a la validez se identifican más diferencias que similitudes. El análisis de estas amenazas puede ser un medio para comprender cómo mejorar el diseño de futuras replicaciones, ejecutadas para generar nuevas evidencias y mejorar resultados de los metaanálisis.
Resumo:
La tierra ha sido utilizada como material de construcción desde hace siglos. No obstante, la normativa al respecto está muy dispersa, y en la mayoría de países desarrollados surgen numerosos problemas técnicos y legales para llevar a cabo una construcción con este material. Este artículo estudia el panorama normativo para las construcciones con tierra cruda a nivel internacional, analizando cincuenta y cinco normas y reglamentos de países repartidos por los cinco continentes, que representan el estado del arte de la normalización de la tierra cruda como material de construcción. Es un estudio referenciado sobre las normas y reglamentos vigentes desarrollados por los organismos nacionales de normalización o autoridades correspondientes. Se presentan las normativas y los organismos que las emiten, analizando la estructura y contenido de cada una. Se estudian y analizan los aspectos más relevantes, como la estabilización, selección de los suelos, requisitos de los productos y ensayos existentes, comparando las diferentes normativas. Este trabajo puede ser de gran utilidad para el desarrollo de futuras normas y como referencia para arquitectos e ingenieros que trabajen con tierra. For centuries, earth has been used as a construction material. Nevertheless, the normative in this matter is very scattered, and in the most developed countries, carrying out a construction with this material implies a variety of technical and legal problems. This article analyzes, in an international level, the normative panorama about constructions with earth, analyzing fifty five standards and regulations of countries all around the five continents; these represent the state of art that normalizes the earth as a construction material. It is a study indexed on the actual procedures and regulations developed by the national organisms of normalization or correspondent authorities. The standards and the organisms that produce them appear, analyzing the structure and the content of each one. We have studied and analyzed the most relevant aspects, such as stabilization, soil selections, the requisites of the products and the existent test, comparing the diverse normative. The knowledge from this study could be very useful for the development of future standards and as a reference for architects and engineers that work with earth.
Resumo:
Una de las maneras de garantizar ante terceros un producto o servicio de calidad es mediante los Certificados de Producto o de Servicio que se pueden obtener por la implantación de Sistemas de Gestión de la Calidad en base a las Normas ISO 9000. En la actualidad continúa abierto, desde antes de la entrada en vigor de la Ley de Ordenación de la Edificación, el debate entre el colectivo de Aparejadores, Arquitectos Técnicos e Ingenieros de Edificación españoles, sobre la manera de aplicar estos sistemas para regular, procedimentar y garantizar los servicios del Director de Ejecución de Obra. El consejo General de la Arquitectura Técnica en España ha editado varias guías que intentan animar al colectivo a agruparse en Sociedades Profesionales y a implantar en ellas Sistemas de Gestión de la Calidad de acuerdo a la Norma ISO 9001, la última en 2008. Se ha realizado un estudio mediante el análisis de una encuesta a una muestra de la población de Constructores, Promotores, Directores de Obra y Directores de Ejecución de Obra, que pone de manifiesto que los intentos de promover estas prácticas no han dado resultado en el colectivo.Por otra parte, el sector de la Construcción tiene unas características muy especiales que le hacen diferente al resto de Industrias y una de las que más dificultades entraña a la hora de que los Sistemas de Gestión de la Calidad puedan ser efectivos es la falta de coordinación entre los diferentes intervinientes en la fase de construcción: Promotor, Constructor, Director de Obra y Director de Ejecución de Obra. Esta labor de integración la desarrollan en muchas ocasiones las empresas de Project Management. Sin embargo no todas las obras pueden asumir el coste adicional que supone este servicio, pudiendo en estos casos ser el Director de Ejecución de Obra el que lidere el proceso edificatorio. Por estas razones, en esta ponencia se defiende el desarrollo de un Modelo Integrador de Sistema de Gestión de la Calidad que facilite estas relaciones, que integre los esfuerzos de todos y que además pueda servir de base para establecer los requisitos para la certificación de los Servicios de Dirección de Ejecución de Obra, bien sea a través de una Empresa de Servicios Profesionales o como Profesional Liberal.
Resumo:
El proyecto ha sido realizado dentro del Programa de Proyectos Fin de Carrera para el Desarrollo (PFCD), correspondiente a la IV Convocatoria. Se realizó en el marco del proyecto financiado por la Universidad Politécnica de Madrid,“Reducción de la vulnerabilidad alimentaria de las familias rurales de San José de Cusmapa”. Con el título de “Manuales técnicos para la elaboración dehuertos de patio sostenibles y trasformación de la producción”, elproyecto está formado por tres documentos, la memoria y sus anejos, presupuesto y manuales técnicos diseñados. Este proyecto no sólo tiene el carácter académico de Proyecto Fin de Carrera, sino también, educativo y humano. Es una herramienta para el desarrollo humano, que mediante la educación agronómica (uno de los objetivos específicos), trata de mejorar los índices de desarrollo (objetivo general). Durante el periodo de nueve meses(octubre 2010 a junio 2011) se realizó el trabajo de campo, mediante la recogida de información, aprendizaje de técnicas, ensayos, y otras experiencias vividas. Con los objetivos y el análisis de la situación actual se realizaron tres manuales técnicos, resultado final del proyecto. El primero,recoge las técnicas de elaboración de un huerto y los cultivos que se pueden sembrar. El segundo, está centrado en el control y prevención de plagas y enfermedades. El tercero se divide en dos bloques, el primero de conservación y trasformación de alimentos, de forma casera, y el segundo bloque la importancia de la dieta y la nutrición. Los manuales han sido diseñados para que estén al alcance de las personas que lo necesiten y de las cuales, muchas de ellas, han colaborado en su realización. El compromiso no solo es académico, sino también humano y emocional. El trabajo diario, los ensayos,los errores y aciertos, la convivencia con los beneficiarios y el aprendizaje continuo, me han permitido obtener una educación profesional y social, ayudándome a desarrollarme como persona.
Resumo:
Los estudios realizados hasta el momento para la determinación de la calidad de medida del instrumental geodésico han estado dirigidos, fundamentalmente, a las medidas angulares y de distancias. Sin embargo, en los últimos años se ha impuesto la tendencia generalizada de utilizar equipos GNSS (Global Navigation Satellite System) en el campo de las aplicaciones geomáticas sin que se haya establecido una metodología que permita obtener la corrección de calibración y su incertidumbre para estos equipos. La finalidad de esta Tesis es establecer los requisitos que debe satisfacer una red para ser considerada Red Patrón con trazabilidad metrológica, así como la metodología para la verificación y calibración de instrumental GNSS en redes patrón. Para ello, se ha diseñado y elaborado un procedimiento técnico de calibración de equipos GNSS en el que se han definido las contribuciones a la incertidumbre de medida. El procedimiento, que se ha aplicado en diferentes redes para distintos equipos, ha permitido obtener la incertidumbre expandida de dichos equipos siguiendo las recomendaciones de la Guide to the Expression of Uncertainty in Measurement del Joint Committee for Guides in Metrology. Asimismo, se han determinado mediante técnicas de observación por satélite las coordenadas tridimensionales de las bases que conforman las redes consideradas en la investigación, y se han desarrollado simulaciones en función de diversos valores de las desviaciones típicas experimentales de los puntos fijos que se han utilizado en el ajuste mínimo cuadrático de los vectores o líneas base. Los resultados obtenidos han puesto de manifiesto la importancia que tiene el conocimiento de las desviaciones típicas experimentales en el cálculo de incertidumbres de las coordenadas tridimensionales de las bases. Basándose en estudios y observaciones de gran calidad técnica, llevados a cabo en estas redes con anterioridad, se ha realizado un exhaustivo análisis que ha permitido determinar las condiciones que debe satisfacer una red patrón. Además, se han diseñado procedimientos técnicos de calibración que permiten calcular la incertidumbre expandida de medida de los instrumentos geodésicos que proporcionan ángulos y distancias obtenidas por métodos electromagnéticos, ya que dichos instrumentos son los que van a permitir la diseminación de la trazabilidad metrológica a las redes patrón para la verificación y calibración de los equipos GNSS. De este modo, ha sido posible la determinación de las correcciones de calibración local de equipos GNSS de alta exactitud en las redes patrón. En esta Tesis se ha obtenido la incertidumbre de la corrección de calibración mediante dos metodologías diferentes; en la primera se ha aplicado la propagación de incertidumbres, mientras que en la segunda se ha aplicado el método de Monte Carlo de simulación de variables aleatorias. El análisis de los resultados obtenidos confirma la validez de ambas metodologías para la determinación de la incertidumbre de calibración de instrumental GNSS. ABSTRACT The studies carried out so far for the determination of the quality of measurement of geodetic instruments have been aimed, primarily, to measure angles and distances. However, in recent years it has been accepted to use GNSS (Global Navigation Satellite System) equipment in the field of Geomatic applications, for data capture, without establishing a methodology that allows obtaining the calibration correction and its uncertainty. The purpose of this Thesis is to establish the requirements that a network must meet to be considered a StandardNetwork with metrological traceability, as well as the methodology for the verification and calibration of GNSS instrumental in those standard networks. To do this, a technical calibration procedure has been designed, developed and defined for GNSS equipment determining the contributions to the uncertainty of measurement. The procedure, which has been applied in different networks for different equipment, has alloweddetermining the expanded uncertainty of such equipment following the recommendations of the Guide to the Expression of Uncertainty in Measurement of the Joint Committee for Guides in Metrology. In addition, the three-dimensional coordinates of the bases which constitute the networks considered in the investigationhave been determined by satellite-based techniques. There have been several developed simulations based on different values of experimental standard deviations of the fixed points that have been used in the least squares vectors or base lines calculations. The results have shown the importance that the knowledge of experimental standard deviations has in the calculation of uncertainties of the three-dimensional coordinates of the bases. Based on high technical quality studies and observations carried out in these networks previously, it has been possible to make an exhaustive analysis that has allowed determining the requirements that a standard network must meet. In addition, technical calibration procedures have been developed to allow the uncertainty estimation of measurement carried outby geodetic instruments that provide angles and distances obtained by electromagnetic methods. These instruments provide the metrological traceability to standard networks used for verification and calibration of GNSS equipment. As a result, it has been possible the estimation of local calibration corrections for high accuracy GNSS equipment in standardnetworks. In this Thesis, the uncertainty of calibration correction has been calculated using two different methodologies: the first one by applying the law of propagation of uncertainty, while the second has applied the propagation of distributions using the Monte Carlo method. The analysis of the obtained results confirms the validity of both methodologies for estimating the calibration uncertainty of GNSS equipment.
Resumo:
Invariablemente una de las primeras acciones en un proyecto de mejora es el poder determinar el estado actual del proceso. Por consiguiente, una organización que pretende mejorar su proceso de gestión de requisitos requiere utilizar un método de evaluación, que le permita identificar las fortalezas y debilidades de su proceso actual, con el fin de priorizar sus acciones de mejora. Este artículo presenta las lecciones aprendidas resultado de la aplicación de una metodología alternativa, mediante el uso de un cuestionario, para determinar el estado actual del proceso de gestión de requisitos que permite identificar, por un lado, las prácticas del proceso que se ejecutan rutinariamente y están bien documentadas y, por otro lado, las prácticas del proceso que requieren de una atención prioritaria.
Resumo:
En claro alineamiento con estrategias de sostenibilidad en el uso de recursos naturales en un escenario constante de aumento de la demanda energética mundial, el desarrollo de la tecnología energética en la Historia de la Especie Humana muestra un vector de evolución permanente desde su origen en el sentido del desarrollo y uso de nuevas fuentes energéticas con la explotación de recursos naturales de manera más eficiente: soluciones energéticas con aumento de la densidad energética (exoenergía de proceso por unidad de masa de recurso natural). Así el cambio de escala en la demanda de explotación del Litio como recurso natural se viene presentando en la última década ligada al desarrollo del mercado de las baterías "ion-Litio" y los requisitos de combustible (Deuterio y Litio) en el camino de la fusión nuclear como opción energética próxima. El análisis anticipado de las demandas sinérgicas a escala de ambos mercados aparece de enorme interés prospectivo en sus aspectos técnicos: (1) tecnologías de base para la extracción mineral y de agua marina y (2) su enriquecimiento isotópico (de interés sinérgico; 7Li para baterías eficientes ion-litio; 6Li como regenerador de tritio en ciclo de combustible en fusión nuclear) a la vez que en sus aspectos económicos. Este Proyecto realiza: (1) un ejercicio de análisis prospectivo de la demanda y de mercado para el enriquecimiento 6Li/7Li para las próximas décadas, (2) se califican los desarrollos tecnológicos específicos que van a poder permitir la producción a escala conforme a la demanda; (3) se selecciona y califica una técnica [de centrifugación / termo-difusión/ destilación combinada] como opción tecnológicamente viable para la producción a escala de formas litiadas; (4) se propone un diseño conceptual de planta de producción y finalmente (5) propone un estudio de viabilidad para la demostración de proceso y construcción de dicha planta de demostración de la nueva capacidad tecnológica. ABSTRACT Clearly aligned with sustainability strategies under growing world energy demand in the use of natural resources the development of energy technology in the history of the human species shows a vector of ongoing evolution from its origin in the sense of the development and use of new energy sources with the exploitation of natural resources in a more efficient manner. The change of scale in the demand for exploitation of Lithium as a natural resource appears during the last decade as bound to the deployment of "lithium-ion" batteries market and to the Nuclear Fusion fuels (deuterium and lithium) supply scaled demands. The prospective analysis of demands to scale in both markets appears in scene with huge prospective interest in its technical aspects: (1) base technologies for mineral and water marine extraction (2) its isotopic enrichment (synergistic interests; 7Li efficient battery Li-ion; 6Li as fusion nuclear fuel breeder (tritium) as well as in its economic aspects. This Project: (1) propose a prospective analysis exercise of the synergistic supply demand for coming decades for the enrichment of 6Li and 7Li, (2) qualifies specific technological developments ongoing to respond to supply demand; (3) select and qualifies an appropriate technique [combined centrifugation/thermo-diffusion/distillation] as technologically viable option for lithiated forms scaled-production; (4) proposes a conceptual design of production plant based on the technique and finally (5) proposes a feasibility study for the process demonstration and construction of this new technological capability Demonstration Plant.
Resumo:
En el Código Técnico de la Edificación se define el riesgo como medida del alcance del peligro que representa un evento no deseado para las personas, expresado en términos de probabilidad vinculada a las consecuencias de un evento, también se expresa como Exigencia Básica de Resistencia y Estabilidad, que estas serán las adecuadas para que no se generen riesgos indebidos manteniendo la resistencia y estabilidad frente a las acciones e influencias previsibles durante la construcción y usos previstos de los edificios, y que además, los posibles eventos extraordinarios que puedan producirse no originen consecuencias desproporcionadas respecto a la causa original. Es ahora donde la gestión de riesgos juega un papel muy importante en la sociedad moderna, siendo esta cada vez más exigente con los resultados y calidad de productos y servicios, además de cumplir también con la responsabilidad jurídica que trae la concepción, diseño y construcción de proyectos de gran envergadura como los son la obra civil y edificación. La obra civil destinada al sector industrial debe ser ejecutada con la mayor precisión posible, pues requiere la instalación de complejos equipos y sistemas productivos que pueden producir esfuerzos dinámicos que muchas veces no se consideran en el diseño de los cimientos que lo soportan, razón por la cual interviene la gestión de riesgos para conocer y reducir los posibles riesgos de fallos que se puedan generar y así intentar aproximarse cada vez más al desarrollo de diseños eficientes y confiables, afianzando la exactitud y minimizando errores en la producción y elaboración de piezas, sistemas y equipos de las distintas áreas productivas de la industria. El presente trabajo de investigación se centra en el estudio de los riesgos técnicos existentes en el diseño y ejecución de cimentaciones para maquinarias, mediante la aplicación de varios métodos de investigación, a fin de intentar cubrir los aspectos más importantes que puedan incurrir en una posible causa de fallo de la estructura, evaluando el acoplamiento entre el sistema máquina-cimiento-suelo. Risk is defined, by the Technical Building Code (Código Técnico de la Edificación, CTE) as a measure of the scope of the hazard of an undesired event for people, expressed in terms of probability related to the consequences of an event, also is expressed as a Basic Requirement Strength and Stability these will be appropriate to not cause undue risk maintaining strength and stability against predictable actions and influences during construction and expected uses of the buildings. Nowadays, Risk Management is an important process in modern society, becoming ever more demanding about the results and quality of products and services, and also complies with the legal responsibility that brings the conception, design and construction of large projects as are civil engineering and construction projects. Civil work as a part of industry must be performed as accurately as possible, requiring the installation of sophisticated equipment and production systems which can produce dynamic forces that often are not considered in the design of the foundations, this is the reason why risk management is involved to understand and reduce the risks of failures that may arise and try to move closer to the development of efficient and reliable designs, strengthening the accuracy and minimizing errors in the production and processing of parts, systems and equipments from different production areas of the industry. This paper is a study of existing technical risks in the design and execution of foundations for machinery, through the application of various research methods, in order to try to cover the most important aspects that may produce the failure of the structure, evaluating the union between the machine-foundation system and soil.
Resumo:
FTTH (fibra hasta el hogar) es actualmente, junto con la banda ancha móvil, la principal evolución tecnológica en Redes y Servicios de Telecomunicaciones. Se prevé que en los próximos años, el despliegue de las redes FTTH se vea incrementado de manera significativa, gracias al interés creciente tanto de Operadores de Telecomunicaciones como de Organismos Gubernamentales. Este despliegue (que en el año 2013 ya se está haciendo realidad) llevará servicios de muy alta velocidad (superiores a 100 Mbps, incluso 1 Gbps) de manera masiva a los hogares, exigiendo nuevos requisitos y prestaciones en la red del hogar de los clientes. Se abre aquí, por tanto, un campo de exploración novedoso, incipiente y de requerimientos cada vez más exigentes. De hecho, sin duda, la red del hogar es uno de los elementos fundamentales para el éxito de las redes y servicios en FTTH. Debido a todo lo anterior, se convierte en una necesidad para el sector de las Telecomunicaciones el encontrar soluciones a los problemas anteriormente mencionados. Con objeto de contribuir al análisis de soluciones, este proyecto se enfoca en dos temas, ambos relacionados con la problemática ya mencionada en la red del hogar: Prospección e identificación de soluciones tecnológicas avanzadas para la red del hogar. Descrito en capítulos 2, 3 y 4. En ellos se realiza un estudio detallado de la situación actual y tendencias futuras de los dispositivos utilizados en la red del hogar. Este estudio está enfocado en la distribución de señales de muy alto ancho de banda (en torno a los 100 Mbps por segundo) en el hogar. Diseño y desarrollo de una aplicación que permita determinar la calidad de experiencia de cliente (QoE) de un servicio de televisión IP (IPTV). Descrito en capítulos 5 y 6. Se ha seleccionado este tipo de servicios debido a que son los que requieren mayores prestaciones tanto de la red de transporte como de la red del hogar y, al mismo tiempo, son los más complicados de medir debido a la fuerte componente de subjetividad del usuario final. Una red del hogar correctamente diseñada debe cumplir de manera equilibrada los requisitos demandados tanto por el operador como por el cliente o usuario final del servicio. Los requisitos del operador se centran principalmente en el control de la inversión (CAPEX) y del gasto de mantenimiento de la red del hogar (OPEX). El usuario, por otra parte, requiere sencillez en la instalación y mínimo número de elementos a instalar (cero intrusismo, ausencia de cableado). Para adaptarse a estos requerimientos, existe una serie de dispositivos y tecnologías que buscan encontrar el punto de equilibrio entre necesidades de operadores y de clientes finales. Las soluciones actualmente utilizadas pueden dividirse en soluciones cableadas e inalámbricas. También existen soluciones híbridas. Todas ellas se describen en detalle en los capítulos 3 y 4. Al final del estudio se concluye que, con la tecnología actual, es preferible el uso de soluciones cableadas tipo Ethernet o POF. Es recomendable no usar soluciones PLC de manera extensiva (G.hn puede ser una alternativa a futuro) y, en caso de no requerir cableado, utilizar WiFi 11n con frecuencias de 5 GHz, así como sus evoluciones, WiFi 11ac y 11ad. La aplicación desarrollada, explicada en los capítulos 5 y 6, permite capturar y medir en tiempo real la señal de televisión IP que se entrega al usuario. Esta aplicación estimará, a partir de dichas medidas, la calidad de la señal entregada. Para ello tendrá en cuenta el tipo de descodificador utilizado por el usuario así como la red empleada (red FTTH de Telefónica). Esta aplicación podría ser utilizada en los centros de atención técnica de las operadoras de telecomunicaciones, determinando así la relación existente entre reclamaciones recibidas y calidad de servicio medida por la aplicación. Asimismo, aparte de realizar medidas en tiempo real, la aplicación vuelca las medidas realizadas y alarmas detectadas en ficheros log, facilitando el análisis técnico de los problemas e incidencias registrados por dichos centros técnicos. Igualmente, esta aplicación puede ser utilizada para el proceso de certificación de equipamiento de red del hogar o incluso como herramienta para profundizar en parámetros teóricos y criterios de medida de calidad de servicio en IPTV. ABSTRACT. FTTH (Fiber To The Home) and mobile broadband are currently the main technological trend in the Network and Telecommunications Services area. In the next few years, the deployment of FTTH networks will experiment a significant increase, due to the growing interest of both telecommunications operators and government agencies. This deployment (that is becoming a reality) which will massively carry high-speed services to households (speeds of more than 100 Mbps, even 1 Gbps) will demand new requirements and features in the customer’s home network. It can be found here a new and emerging field of exploration, with increasingly demanding requirements. In fact, the home network is one of the key elements for the success of FTTH network and services. Due to the aforementioned, it is a necessity for the telecommunications industry to find solutions to these problems. In order to contribute into the solution analysis, this project focuses on two subjects, both related to the problems of home networking: Exploratory research and identification of advanced technology solutions for the home network. Described in chapters 2, 3 and 4. These chapters show a detailed study of the current situation and future trends of the devices used at the home network. It focuses on the distribution of very high bandwidth signals (around 100 Mbps per second) in the customer’s home. Design and development of an application to evaluate customer’s quality of experience (QoE) of an IP television service (IPTV). Described in chapters 5 and 6. IPTV service has been selected because it requires higher performance both from the transport and the home networks and, at the same time, it is the most difficult to measure due to the strong component of subjectivity of the end user. A correct design of the home network must meet the requirements demanded both by the network operator and the customer (end user of the service). Network operator requirements mainly focus on reduced capital expenditures (CAPEX) and operational expenditures (OPEX). Additionally, the final user requires a simple and easy installation and also the minimum number of items to install (zero intrusion, lack of wiring, etc.). Different devices and technologies seek to find a balance between these two requirements (network operators and final users requirements). Solutions available in the market can be divided into wired and wireless. There are also hybrid solutions. All of them are described thoroughly in the first part of the project. The conclusion at the end of the study recommends the use of wired technologies like Ethernet or POF. Additionally, the use of PLC is not advised (G.hn can be an alternative in the future) and, in the case of not requiring wiring, the use of 11ac and 11ad WiFi is advised. The application developed in the second part of the project allows capturing and measuring the real-time IPTV signal delivered to the user. This application will estimate the delivered signal quality from the captured measurements. For this purpose, it will also consider the type of decoder installed on the customer’s premises and the transport network (Telefonica’s FTTH network). This application could be used at the operator’s technical service centres, determining in this way the relationship between user’s complaints and the quality of service measured. Additionally, this application can write all the measurements and alarms in log files, making easier the technical analysis of problems and impairments recorded by the technical centres. Finally, the application can also be used for the certification process of home networking equipment (i.e. decoders) or even as a tool to deepen theoretical parameters and measuring criteria of quality of service in IPTV.
Resumo:
El vertiginoso avance de la informática y las telecomunicaciones en las últimas décadas ha incidido invariablemente en la producción y la prestación de servicios, en la educación, en la industria, en la medicina, en las comunicaciones e inclusive en las relaciones interpersonales. No obstante estos avances, y a pesar de la creciente aportación del software al mundo actual, durante su desarrollo continuamente se incurre en el mismo tipo de problemas que provocan un retraso sistemático en los plazos de entrega, se exceda en presupuesto, se entregue con una alta tasa de errores y su utilidad sea inferior a la esperada. En gran medida, esta problemática es atribuible a defectos en los procesos utilizados para recoger, documentar, acordar y modificar los requisitos del sistema. Los requisitos son los cimientos sobre los cuáles se construye un producto software, y sin embargo, la incapacidad de gestionar sus cambios es una de las principales causas por las que un producto software se entrega fuera de tiempo, se exceda en coste y no cumpla con la calidad esperada por el cliente. El presente trabajo de investigación ha identificado la necesidad de contar con metodologías que ayuden a desplegar un proceso de Gestión de Requisitos en pequeños grupos y entornos de trabajo o en pequeñas y medianas empresas. Para efectos de esta tesis llamaremos Small-Settings a este tipo de organizaciones. El objetivo de este trabajo de tesis doctoral es desarrollar un metamodelo que permita, por un lado, la implementación y despliegue del proceso de Gestión de Requisitos de forma natural y a bajo coste y, por otro lado, el desarrollo de mecanismos para la mejora continua del mismo. Este metamodelo esta soportado por el desarrollo herramientas que permiten mantener una biblioteca de activos de proceso para la Gestión de Requisitos y a su vez contar con plantillas para implementar el proceso partiendo del uso de activos previamente definidos. El metamodelo contempla el desarrollo de prácticas y actividades para guiar, paso a paso, la implementación del proceso de Gestión de Requisitos para una Small-Setting utilizando un modelo de procesos como referencia y una biblioteca de activos de proceso como principal herramienta de apoyo. El mantener los activos de proceso bien organizados, indexados, y fácilmente asequibles, facilita la introducción de las mejores prácticas al interior de una organización. ABSTRACT The fast growth of computer science and telecommunication in recent decades has invariably affected the provision of products and services in education, industry, healthcare, communications and also interpersonal relationships. In spite of such progress and the active role of the software in the world, its development and production continually incurs in the same type of problems that cause systematic delivery delays, over budget, a high error rate and consequently its use is lower than expected. These problems are largely attributed to defects in the processes used to identify, document, organize, and track all system's requirements. It is generally accepted that requirements are the foundation upon which the software process is built, however, the inability to manage changes in requirements is one of the principal factors that contribute to delays on the software development process, which in turn, may cause customer dissatisfaction. The aim of the present research work has identified the need for appropriate methodologies to help on the requirement management process for those organizations that are categorised as small and medium size enterprises, small groups within large companies, or small projects. For the purposes of this work, these organizations are named Small-Settings. The main goal of this research work is to develop a metamodel to manage the requirement process using a Process Asset Library (PAL) and to provide predefined tools and actives to help on the implementation process. The metamodel includes the development of practices and activities to guide step by step the deployment of the requirement management process in Small-Settings. Keeping assets organized, indexed, and readily available are a main factor to the success of the organization process improvement effort and facilitate the introduction of best practices within the organization. The Process Asset Library (PAL) will become a repository of information used to keep and make available all process assets that are useful to those who are defining, implementing, and managing processes in the organization.
Resumo:
El presente Proyecto Fin de Carrera consiste en un estudio de los accesos a red que utilizan los servicios a los que están adscritos los usuarios de servicios de teleasistencia, planteando al final del mismo un modelo de previsión de caídas que permita que ese acceso a red no sea un problema para la prestación del servicio. Para poder llegar a los objetivos anteriormente descritos, iniciaremos este documento presentando qué se entiende actualmente como servicios de telemedicina y teleasistencia. Prestaremos atención a los actores que intervienen, usos y beneficios que tienen tanto para los pacientes como para las administraciones públicas. Una vez sepamos en qué consisten, centraremos la atención en las redes de acceso que se utilizan para prestar los servicios de telemedicina, con sus ventajas y desventajas. Puesto que no todos los servicios tienen los mismos requisitos generales de fiabilidad o velocidad de transmisión, veremos cómo se puede garantizar las necesidades de cada tipo de servicio por parte del proveedor de red. El siguiente paso para llegar a establecer el modelo de previsión de caídas será conocer las necesidades técnicas y de los actores para prestar un servicio de teleasistencia en el hogar de un paciente. Esto incluirá estudiar qué equipos se necesitan, cómo gestionarlos y cómo marcar el tráfico para que el operador de red sepa cómo tratarlo según el servicio de teleasistencia que se está utilizando, llevando a generar un modelo de supervisión de enlaces de teleasistencia. Llegados a este punto estaremos ya preparados para establecer un modelo de previsión de caídas de la conexión, describiendo la lógica que se necesite para ello, y poniéndolo en práctica con dos ejemplo concretos: un servicio de telemonitorización domiciliaria y otro servicio de telemonitorización ambulatoria. Para finalizar, realizaremos una recapitulación sobre lo estudiado en este documento y realizaremos una serie de recomendaciones. ABSTRACT. This Thesis is a study of the access network to be used with services assigned to patients that are users of telecare services. In the last chapter we will describe a fall forecasting model that allows the access network to not be an issue for the service. For achieving the objectives described above, this paper will begin with the presentation of what is now understood as telemedicine and telecare services. We pay attention to the actors involved, uses and benefits that they have both for patients and for public administrations. Once we know what telecare means and what requisites they have, we will focus on access networks which are used to provide telemedicine services, with their advantages and disadvantages. Since not all services have the same general requirements of reliability and transmission speed, we will try to see how you can ensure the needs of each type of service from the network provider's point of view. The next step is to establish that the forecasting model of falls will meet the technical needs and actors to provide telecare service in the home of a patient. This will include a study of what equipment is needed, how to manage and how to mark traffic for the network operator knowing how to treat it according to the telecare service being used, and this will lead us to the creation of a model of telecare link monitoring. At this point we are already prepared to establish a forecasting model of connection drops, describing the logic that is needed for this, and putting it into practice with two concrete examples: telemonitoring service and an ambulatory telemonitoring service. Finally, we will have a recap on what has been studied in this paper and will make a series of recommendations.
Resumo:
Los sistemas técnicos son cada vez más complejos, incorporan funciones más avanzadas, están más integrados con otros sistemas y trabajan en entornos menos controlados. Todo esto supone unas condiciones más exigentes y con mayor incertidumbre para los sistemas de control, a los que además se demanda un comportamiento más autónomo y fiable. La adaptabilidad de manera autónoma es un reto para tecnologías de control actualmente. El proyecto de investigación ASys propone abordarlo trasladando la responsabilidad de la capacidad de adaptación del sistema de los ingenieros en tiempo de diseño al propio sistema en operación. Esta tesis pretende avanzar en la formulación y materialización técnica de los principios de ASys de cognición y auto-consciencia basadas en modelos y autogestión de los sistemas en tiempo de operación para una autonomía robusta. Para ello el trabajo se ha centrado en la capacidad de auto-conciencia, inspirada en los sistemas biológicos, y se ha explorado la posibilidad de integrarla en la arquitectura de los sistemas de control. Además de la auto-consciencia, se han explorado otros temas relevantes: modelado funcional, modelado de software, tecnología de los patrones, tecnología de componentes, tolerancia a fallos. Se ha analizado el estado de la técnica en los ámbitos pertinentes para las cuestiones de la auto-consciencia y la adaptabilidad en sistemas técnicos: arquitecturas cognitivas, control tolerante a fallos, y arquitecturas software dinámicas y computación autonómica. El marco teórico de ASys existente de sistemas autónomos cognitivos ha sido adaptado para servir de base para este análisis de autoconsciencia y adaptación y para dar sustento conceptual al posterior desarrollo de la solución. La tesis propone una solución general de diseño para la construcción de sistemas autónomos auto-conscientes. La idea central es la integración de un meta-controlador en la arquitectura de control del sistema autónomo, capaz de percibir la estado funcional del sistema de control y, si es necesario, reconfigurarlo en tiempo de operación. Esta solución de metacontrol se ha formalizado en cuatro patrones de diseño: i) el Patrón Metacontrol, que define la integración de un subsistema de metacontrol, responsable de controlar al propio sistema de control a través de la interfaz proporcionada por su plataforma de componentes, ii) el patrón Bucle de Control Epistémico, que define un bucle de control cognitivo basado en el modelos y que se puede aplicar al diseño del metacontrol, iii) el patrón de Reflexión basada en Modelo Profundo propone una solución para construir el modelo ejecutable utilizado por el meta-controlador mediante una transformación de modelo a modelo a partir del modelo de ingeniería del sistema, y, finalmente, iv) el Patrón Metacontrol Funcional, que estructura el meta-controlador en dos bucles, uno para el control de la configuración de los componentes del sistema de control, y otro sobre éste, controlando las funciones que realiza dicha configuración de componentes; de esta manera las consideraciones funcionales y estructurales se desacoplan. La Arquitectura OM y el metamodelo TOMASys son las piezas centrales del marco arquitectónico desarrollado para materializar la solución compuesta de los patrones anteriores. El metamodelo TOMASys ha sido desarrollado para la representación de la estructura y su relación con los requisitos funcionales de cualquier sistema autónomo. La Arquitectura OM es un patrón de referencia para la construcción de una metacontrolador integrando los patrones de diseño propuestos. Este meta-controlador se puede integrar en la arquitectura de cualquier sistema control basado en componentes. El elemento clave de su funcionamiento es un modelo TOMASys del sistema decontrol, que el meta-controlador usa para monitorizarlo y calcular las acciones de reconfiguración necesarias para adaptarlo a las circunstancias en cada momento. Un proceso de ingeniería, complementado con otros recursos, ha sido elaborado para guiar la aplicación del marco arquitectónico OM. Dicho Proceso de Ingeniería OM define la metodología a seguir para construir el subsistema de metacontrol para un sistema autónomo a partir del modelo funcional del mismo. La librería OMJava proporciona una implementación del meta-controlador OM que se puede integrar en el control de cualquier sistema autónomo, independientemente del dominio de la aplicación o de su tecnología de implementación. Para concluir, la solución completa ha sido validada con el desarrollo de un robot móvil autónomo que incorpora un meta-controlador con la Arquitectura OM. Las propiedades de auto-consciencia y adaptación proporcionadas por el meta-controlador han sido validadas en diferentes escenarios de operación del robot, en los que el sistema era capaz de sobreponerse a fallos en el sistema de control mediante reconfiguraciones orquestadas por el metacontrolador. ABSTRACT Technical systems are becoming more complex, they incorporate more advanced functionalities, they are more integrated with other systems and they are deployed in less controlled environments. All this supposes a more demanding and uncertain scenario for control systems, which are also required to be more autonomous and dependable. Autonomous adaptivity is a current challenge for extant control technologies. The ASys research project proposes to address it by moving the responsibility for adaptivity from the engineers at design time to the system at run-time. This thesis has intended to advance in the formulation and technical reification of ASys principles of model-based self-cognition and having systems self-handle at runtime for robust autonomy. For that it has focused on the biologically inspired capability of self-awareness, and explored the possibilities to embed it into the very architecture of control systems. Besides self-awareness, other themes related to the envisioned solution have been explored: functional modeling, software modeling, patterns technology, components technology, fault tolerance. The state of the art in fields relevant for the issues of self-awareness and adaptivity has been analysed: cognitive architectures, fault-tolerant control, and software architectural reflection and autonomic computing. The extant and evolving ASys Theoretical Framework for cognitive autonomous systems has been adapted to provide a basement for this selfhood-centred analysis and to conceptually support the subsequent development of our solution. The thesis proposes a general design solution for building self-aware autonomous systems. Its central idea is the integration of a metacontroller in the control architecture of the autonomous system, capable of perceiving the functional state of the control system and reconfiguring it if necessary at run-time. This metacontrol solution has been formalised into four design patterns: i) the Metacontrol Pattern, which defines the integration of a metacontrol subsystem, controlling the domain control system through an interface provided by its implementation component platform, ii) the Epistemic Control Loop pattern, which defines a modelbased cognitive control loop that can be applied to the design of such a metacontroller, iii) the Deep Model Reflection pattern proposes a solution to produce the online executable model used by the metacontroller by model-to-model transformation from the engineering model, and, finally, iv) the Functional Metacontrol pattern, which proposes to structure the metacontroller in two loops, one for controlling the configuration of components of the controller, and another one on top of the former, controlling the functions being realised by that configuration; this way the functional and structural concerns become decoupled. The OM Architecture and the TOMASys metamodel are the core pieces of the architectural framework developed to reify this patterned solution. The TOMASys metamodel has been developed for representing the structure and its relation to the functional requirements of any autonomous system. The OM architecture is a blueprint for building a metacontroller according to the patterns. This metacontroller can be integrated on top of any component-based control architecture. At the core of its operation lies a TOMASys model of the control system. An engineering process and accompanying assets have been constructed to complete and exploit the architectural framework. The OM Engineering Process defines the process to follow to develop the metacontrol subsystem from the functional model of the controller of the autonomous system. The OMJava library provides a domain and application-independent implementation of an OM Metacontroller than can be used in the implementation phase of OMEP. Finally, the complete solution has been validated in the development of an autonomous mobile robot that incorporates an OM metacontroller. The functional selfawareness and adaptivity properties achieved thanks to the metacontrol system have been validated in different scenarios. In these scenarios the robot was able to overcome failures in the control system thanks to reconfigurations performed by the metacontroller.
Resumo:
Comentarios Técnicos: de la clasificación de los sistemas de impermeabilización I.