911 resultados para INGENIERÍA DEL SOFTWARE
Resumo:
Desarrollar y evaluar los nuevos materiales para la enseñanza interdisciplinar que incluye contenidos tradicionales de geografía humana y económica, así como de estadística. Incorporar los últimos avances de la investigación sobre los efectos en el aprendizaje de los nuevos medios basados en las tecnologías de la información y la comunicación. Plantear un ejemplo de desarrollo curricular de un conjunto de contenidos que no afectan a un tema único. Desarrollar actividades de enseñanza-aprendizaje centradas, en primer lugar, en la adquisicion de conceptos, principios y procedimientos climáticos; en segundo lugar, centradas en la toma de decisiones mediante un modelo de simulación probabilístico, conducentes a la adquisición de destrezas y habilidades intelectuales adecuadas al desarrollo cognitivo de alumnos de 14-16 años, aprovechando las ventajas que ofrece el ordenador.. Dos etapas, la primera diseña y elabora el programa de ordenador y la segunda se dirige a la evaluación del mismo. El diseño y producción del programa pasa por las siguientes fases: 1) selección, diseño y estructuración de las actividades de enseñanza-aprendizaje; 2) elaboración de la versión preliminar del software y de los materiales escritos complementarios; 3) revisión y adecuación de la versión preliminar; 4) elaboración de la versión definitiva del programa. Para la evaluación se diseña un modelo de software educativo y se pide a profesores en formación y en activo de enseñanza secundaria, de las áreas de geografía e historia y matemáticas, que evalúen el programa de su materia.. Programa de ordenador clima.. 1. El profesorado ha evaluado como muy útil el programa. 2. Cubre adecuadamente los objetivos de motivación, elicitación y reestructuración de ideas previas de los alumnos, y propone una secuencia correcta de actividades para el aprendizaje de conceptos, principios y procedimientos, tanto climáticos como probabilísticos. 3. Dentro de las categorías de software educativo, es clasificado a la vez, como programa tutorial, de simulación, de juego y de resolución de problemas, es decir, es adaptable a distintos tipos de profesores y situaciones didácticas. 4. Se valoran muy positivamente algunas características técnicas del programa: su interactividad, la claridad de las explicaciones y ayudas, la animación, los gráficos, el color y la utilización de hipertexto. 5. Se señalan varios defectos o dificultades técnicas: las elevadas exigencias al ordenador en cuanto a memoria, velocidad de procesamiento y resolución gráfica; la necesidad de utilización correcta por el usuario del entorno Windows. 6. Defectos didácticos: el programa no lleva un registro de nombres y actuaciones de los alumnos..
Resumo:
Resumen basado en el de la publicación
Resumo:
[ES]El objetivo de este Trabajo es el de actualizar un entorno de gestión de bases de datos existente a la versión 11.2 del software de bases de datos Oracle y a una plataforma hardware de última generación. Se migran con tiempo de parada cero varias bases de datos dispersas en distintos servidores a un entorno consolidado de dos nodos dispuestos en alta disponibilidad tipo "activo-activo" mediante Oracle RAC y respaldado por un entorno de contingencia totalmente independiente y sincronizado en tiempo real mediante Oracle GoldenGate. Se realiza un estudio del entorno actual y, realizando una estimación de crecimiento, se propone una configuración de hardware y software mínima para implementar con garantías de éxito los requerimientos del entorno de gestión de bases de datos a corto y medio plazo. Una vez adquirido el hardware, se lleva a cabo la instalación, actualización y configuración del Sistema Operativo y el acceso redundado de los servidores a la cabina de almacenamiento. Posteriormente se instala el software de clúster de Oracle, el software de la base de datos y se crea una instancia que albergará los esquemas requeridos de las bases de datos a consolidar. Seguidamente se migran los esquemas al entorno consolidado y se establece la replicación de éstos en tiempo real con la máquina de contingencia usando en ambos casos Oracle GoldenGate. Finalmente se crea y prueba un esquema de copias de seguridad que incluye copias lógicas y físicas de la propia base de datos y de archivos de configuración del clúster a partir de los cuales será posible restaurar el entorno completamente.
Resumo:
Il gruppo di tecnologie e sistemi di lavorazione del Dipartimento di Ingegneria Industriale, D.I.N, dell’Università di Bologna ha compiuto in collaborazione con il Dipartimento IUL della TU di Dortmund, negli ultimi anni, due campagne sperimentali effettuando processi di estrusione di leghe di alluminio. Nella prima, utilizzando leghe AA6060 e il metodo della visioplasticità, sono stati raccolti dati volti a ricavare le condizioni di attrito di tali processi, tramite confronto con valori ottenuti in simulazioni agli elementi finiti. Nella seconda, utilizzando invece una lega AA6082, è stata valutata la microstruttura al fine di permettere, tramite programmi agli elementi finiti, la determinazione di correlazioni fra variabili che prevedano la dimensione della microstruttura della lega stessa a seguito di lavorazioni per deformazione plastica. Basandosi quindi su queste prove sperimentali e utilizzando il software “QuantorForm versione 7.2.4”, è stato svolto il lavoro di tesi finalizzato a conseguire i seguenti obiettivi: • individuare il modello di attrito che si sviluppa nei processi di estrusione analizzati per la lega di alluminio AA6060; • determinare i parametri di settaggio ottimale del software, confrontando i risultati ottenuti nelle simulazioni con quelli sperimentali; • determinare le curve che descrivono la dimensione di un grano cristallino di AA6082 in funzione della deformazione; • implementare come subroutine in Qform, tramite l’utilizzo del linguaggio “Lua”, il modello di microstruttura ottenuto.
Resumo:
In questa tesi faremo prima una panoramica sui dispositivi medici e, in particolare, andremo ad approfondire l’aspetto del software come dispositivo medico; successivamente andremo ad analizzare il sistema, definito “nuovo approccio”, che regolamenta l’immissione in commercio dei dispositivi medici all’interno del mercato europeo per andare poi ad analizzare la parte sulla gestione del rischio che è fondamentale per raggiungere la conformità soprattutto quando si tratta di dispositivi medici. Nel secondo capitolo, andremo poi ad analizzare il report tecnico IEC 80002-1 del 2009 che fornisce una guida, destinata al software, per l’applicazione dei requisiti contenuti nella normativa CEI UNI EN ISO 14971:2007. Nel terzo capitolo, visto il sempre maggior numero di dispositivi medici dotati di interfaccia di rete andremo ad analizzare il report tecnico IEC 80001 del 2009 per la gestione dei rischi delle reti IT medicali che incorporano tali dispositivi rivolto alle aziende ospedaliere.
Resumo:
El objetivo del presente trabajo es describir la experiencia de implementación del Sistema Integrado de Gestión Bibliotecaria (SIGB) Koha en una biblioteca especializada en el campo de las ciencias sociales, la Biblioteca de Ciencias Sociales "Enzo Faletto" de la Facultad Latinoamericana de Ciencias Sociales, Sede Académica Argentina. El software seleccionado responde a la intención de adaptar sus procesos a los avances tecnológicos y estándares internacionales que permitan la interoperabilidad con otros sistemas, así como al trabajo cooperativo con otras bibliotecas que facilite el intercambio de datos. De igual forma se corresponde con la política institucional de la Facultad de utilización de software libre. Se exponen las etapas de trabajo aplicadas para el cambio de sistema: tareas iniciales de evaluación de todos los tipos de datos registrados en los catálogos de la biblioteca y las correcciones y homogeneización de los mismos. Asimismo, se detalla el proceso de migración, a través de una proceso de reformateo, de los formatos CEPAL y RELAP, que incluyen registros bibliográficos de ;obras monográficas, artículos y revistas en diversos soportes físicos, al formato MARC21 empleado por Koha. Se destaca la captación de la experiencia realizada por una biblioteca universitaria en este aspecto para resolver de modo cooperativo la problemática de la migración de datos. Se presenta también una de las principales dificultades de la biblioteca de no contar con un número de identificación unívoco que identifique cada ítem existente en su colección, requisito indispensable para todos los SIGB, y la solución adoptada ante esta problemática. Finalmente, se exponen la etapa ;de instalación y configuración del software en su versión 3.16.01.000, y las tareas de adaptación y ajustes del catálogo para su consulta en línea por los usuarios finales, con opciones enriquecidas para las búsquedas de diferente tipo y la navegabilidad de los resultados
Resumo:
El objetivo del presente trabajo es describir la experiencia de implementación del Sistema Integrado de Gestión Bibliotecaria (SIGB) Koha en una biblioteca especializada en el campo de las ciencias sociales, la Biblioteca de Ciencias Sociales "Enzo Faletto" de la Facultad Latinoamericana de Ciencias Sociales, Sede Académica Argentina. El software seleccionado responde a la intención de adaptar sus procesos a los avances tecnológicos y estándares internacionales que permitan la interoperabilidad con otros sistemas, así como al trabajo cooperativo con otras bibliotecas que facilite el intercambio de datos. De igual forma se corresponde con la política institucional de la Facultad de utilización de software libre. Se exponen las etapas de trabajo aplicadas para el cambio de sistema: tareas iniciales de evaluación de todos los tipos de datos registrados en los catálogos de la biblioteca y las correcciones y homogeneización de los mismos. Asimismo, se detalla el proceso de migración, a través de una proceso de reformateo, de los formatos CEPAL y RELAP, que incluyen registros bibliográficos de ;obras monográficas, artículos y revistas en diversos soportes físicos, al formato MARC21 empleado por Koha. Se destaca la captación de la experiencia realizada por una biblioteca universitaria en este aspecto para resolver de modo cooperativo la problemática de la migración de datos. Se presenta también una de las principales dificultades de la biblioteca de no contar con un número de identificación unívoco que identifique cada ítem existente en su colección, requisito indispensable para todos los SIGB, y la solución adoptada ante esta problemática. Finalmente, se exponen la etapa ;de instalación y configuración del software en su versión 3.16.01.000, y las tareas de adaptación y ajustes del catálogo para su consulta en línea por los usuarios finales, con opciones enriquecidas para las búsquedas de diferente tipo y la navegabilidad de los resultados
Resumo:
El objetivo del presente trabajo es describir la experiencia de implementación del Sistema Integrado de Gestión Bibliotecaria (SIGB) Koha en una biblioteca especializada en el campo de las ciencias sociales, la Biblioteca de Ciencias Sociales "Enzo Faletto" de la Facultad Latinoamericana de Ciencias Sociales, Sede Académica Argentina. El software seleccionado responde a la intención de adaptar sus procesos a los avances tecnológicos y estándares internacionales que permitan la interoperabilidad con otros sistemas, así como al trabajo cooperativo con otras bibliotecas que facilite el intercambio de datos. De igual forma se corresponde con la política institucional de la Facultad de utilización de software libre. Se exponen las etapas de trabajo aplicadas para el cambio de sistema: tareas iniciales de evaluación de todos los tipos de datos registrados en los catálogos de la biblioteca y las correcciones y homogeneización de los mismos. Asimismo, se detalla el proceso de migración, a través de una proceso de reformateo, de los formatos CEPAL y RELAP, que incluyen registros bibliográficos de ;obras monográficas, artículos y revistas en diversos soportes físicos, al formato MARC21 empleado por Koha. Se destaca la captación de la experiencia realizada por una biblioteca universitaria en este aspecto para resolver de modo cooperativo la problemática de la migración de datos. Se presenta también una de las principales dificultades de la biblioteca de no contar con un número de identificación unívoco que identifique cada ítem existente en su colección, requisito indispensable para todos los SIGB, y la solución adoptada ante esta problemática. Finalmente, se exponen la etapa ;de instalación y configuración del software en su versión 3.16.01.000, y las tareas de adaptación y ajustes del catálogo para su consulta en línea por los usuarios finales, con opciones enriquecidas para las búsquedas de diferente tipo y la navegabilidad de los resultados
Resumo:
La simulación de la física del núcleo de los reactores nucleares por su complejidad requiere del uso de computadores y del software adecuado, y su evolución es ir hacía métodos y modelos de los llamados best-estimate, con el objeto de aumentar la disponibilidad de la central manteniendo los márgenes de seguridad. Para ello el Departamento de Ingeniería Nuclear (UPM), ha desarrollado el Sistema SEANAP en uso en varias centrales nucleares españolas, que realiza la simulación en 3D y con detalle de barrita combustible del quemado nominal y real del núcleo del reactor, hace el seguimiento en línea de la operación, y ayuda a la planificación óptima de las maniobras operacionales
Resumo:
El ferrocarril está llamado a ser uno de los modos de transporte del futuro tanto para mercancías como para viajeros. Esto conduce a la necesidad de reducir los efectos negativos que la explotación ferroviaria produce, y entre ellos los más relevantes son el ruido y las vibraciones, que causan molestias a usuarios y habitantes cercanos y perturbaciones en infraestructuras propias de la red o cercanas a la misma. En el trabajo de investigación que aquí se resume, se ha realizado un estudio teórico exhaustivo de los fenómenos de emisión de ruido ferroviario analizando sus causas y parámetros de influencia. A partir de este estudio, se ha elaborado una metodología completa y sencilla para la caracterización del ruido de paso que cubre todas las fases necesarias, desde la adquisición de datos de ruido, hasta la obtención de resultados numéricos y de forma gráfica a través de una herramienta software desarrollada a tal efecto. De las distintas metodologías de caracterización se escogió, por ser la más representativa para el estudio, la caracterización del ruido de paso de vehículos (a velocidad constante). La herramienta informática, la metodología en sí y sus resultados han sido comprobados y ratificados con ensayos reales en las instalaciones de Alta Velocidad de la red española, registrándose el paso de diferentes composiciones. Además se puede afirmar que cumplen con las especificaciones y restricciones establecidas por la normativa vigente en España y Europa. Este trabajo ha sido desarrollado en el Centro de Investigación en Tecnologías Ferroviarias (CITEF), centro ligado a la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid.
Resumo:
Esta aportación trata la incompatibilidad del dibujo por ordenador con la configuración del espacio vivencial trazado con la mano como extensión del cuerpo. Aportamos una experiencia docente del dibujar para proyectar en arquitectura. El código digital, como sabemos, es un lenguaje abstracto, originado en la matemática cuyos signos y operaciones no describen cualidades del sujeto. La utilización del software para proyectar implica que el arquitecto depende de un suministrador que le proporciona un medio de cuya estructura es ajeno. El medio para proyectar es un metalenguaje a cuya estructura no tiene acceso. Según Deleuze, el espacio digital sería la máxima subordinación de la mano al ojo, la mano que se ha fundido. Sólo subsiste un dedo para operar la elección binaria visual. La mano es reducida al dedo que apoya sobre el teclado, es la mano informática, es el dedo sin mano. Si el lenguaje digital está totalmente articulado y convencional, sólo opera con modelos, el conflicto se produce en el momento que el dibujo arquitectónico es proyecto de algo que no existe y no representa ningún objeto preexistente...
Estudio preliminar acerca del uso de protocolos y actos comunicativos FIPA en el sistema COMPUTAPLEX
Resumo:
Este trabajo corresponde con la implementación de componentes software dentro de la Plataforma COMPUTAPLEX, la cual tiene como objetivo facilitar a los investigadores la realización de tareas del proceso experimental de ingeniería de software. Uno de los aportes a esta plataforma tecnológica corresponde con el desarrolló de los componentes necesarios para la recuperación de datos experimentales disponibles en diversas fuentes de datos, para ello se hizo uso de un mecanismo capaz de unificar la extracción de información de MySQL, ficheros excel y ficheros SPSS. Con ello diferentes grupos de investigación asociados pueden compartir y tener acceso a repositorios experimentales que se mantienen tanto de manera local como externa. Por otra parte, se ha realizado un estudio de la tecnología de agentes en la que se describe sus definiciones, lenguajes de comunicación, especificación FIPA, JADE como implementación FIPA y parser XML. Además para este trabajo se ha definido e implementado una ontología de comunicación entre agentes, la misma que fue diseñada en la herramienta Protégé. En lo que se refiere al desarrollo de componentes se hizo uso de una amplía variedad de tecnologías que incluye lenguaje de programación Java, framework JADE para el desarrollo de agentes, librería JENA para manejo de ontologías, librería SAXParser para lectura de archivos XML y patrón de diseño Factory. Finalmente se describe la metodología de trabajo utilizada en el proyecto, la cual por medio de la realización de varios ciclos iterativos permitió obtener prototipos que poco a poco fueron cubriendo las necesidades del producto software.----ABSTRACT---- This work relates to the implementation of software components within the platform Computaplex, which aims to enable researchers to conduct experimental software engineering process tasks. One of the contributions to this platform technology corresponds to the development of components which are necessary for the recovery of experimental data available in different data sources, to archive this goal a mechanism able to unify the extraction of information from MySQL, Excel and SPSS files was made. Therefore, associated research groups can share and access experimental repositories that remain both locally and externally. Moreover, it has been conducted a study of agent technology in its definition is described, languages communication, FIPA, JADE and FIPA implementation and XML parser. In addition to this work, it has been defined and implemented an ontology for communication between agents, the same as was designed in the Protégé tool. In what refers to the development of components, a wide range of technologies have been made which includes Java programming language, framework JADE for agent development, JENA library for handling ontologies, SAXParser for reading XML files and Factory design pattern. Finally, describing the work methodology used in this project, which through the implementation of several iterative cycles allowed to obtain prototypes were gradually meeting the needs of the software product.
Resumo:
El presente trabajo tiene como objetivo diseñar un modelo de gestión de responsabilidad social sustentado en estándares internacionales para las empresas del sector petrolero venezolano. Esta investigación no se suscribe a un modelo epistémico en particular, como forma parcializada de ver la realidad. Por el contrario, se realizó un abordaje holístico de la investigación, entendiendo el evento de estudio, la gestión de la responsabilidad social, como un evento integrado por distintas visiones de la relación empresa – sociedad. La holística se refiere a una tendencia que permite entender la realidad desde el punto de vista de las múltiples interacciones que la caracterizan. Corresponde a una actitud integradora como también a una teoría explicativa que se orienta hacia una comprensión contextual de los procesos, de los protagonistas y de los eventos. Desde la concepción holística se determinó que la investigación es de tipo proyectiva. Este tipo de investigación propone soluciones a una situación determinada a partir de un proceso de indagación. Implica describir, comparar, explicar y proponer alternativas de cambios, lo que da lugar a los estadios de investigación. En cuanto al diseño de la investigación, aplicando el ciclo holístico, se tiene un diseño que es univariable, transeccional contemporáneo y de fuente mixta. Univariable, porque se enfoca en la gestión de responsabilidad social. Transeccional contemporáneo, porque el evento se estudia en la actualidad y se realiza una sola medición de los datos. De fuente mixta, porque en los estadios descriptivo y explicativo se aplica un diseño de campo, al recolectar los datos directamente en las empresas objeto de estudio, mientras que para los estadios analítico y comparativo se aplica un diseño documental. Las técnicas de recolección de la información estuvieron constituidas por fuentes primarias provenientes de la observación directa, la revisión documental y la aplicación de un cuestionario estructurado tipo escala Likert. El análisis de los datos comprendió el análisis estadístico descriptivo, la estimación de la fiabilidad y el análisis de coeficientes de correlación y análisis de ruta, a través del software estadístico SPSS v.19.0 y AMOS v.20. En los estadios descriptivo y explicativo se estudió la gestión de la responsabilidad social en las empresas del sector petrolero. Los resultados indicaron que las empresas del sector petrolero actúan bajo los lineamientos trazados en el Plan de Desarrollo Nacional y de acuerdo con las políticas, directrices, planes y estrategias para el sector de los hidrocarburos, dictadas por el Ministerio de Energía y Petróleo. También incluyen el compromiso social y la política ambiental en su filosofía de gestión. Tienen en su estructura organizacional una gerencia de desarrollo social que gestiona la responsabilidad social. Las actividades de inversión social se presentan poco estructuradas y en ocasiones se improvisan ya que atienden a los lineamientos políticos del Estado y no a una política interna de sostenibilidad del negocio petrolero. En cuanto a la integralidad de la gestión las empresas no consideran la responsabilidad social en todas las áreas, por lo que deben ampliar su concepción de una gestión responsable, redefiniendo estructuras, estrategias y procesos, con una orientación hacia una gestión sustentable. En cuanto a los estadios analítico y comparativo aplicados al estudio de las guías y estándares internacionales de responsabilidad social, se determinó que en términos de la integralidad de la gestión las iniciativas que destacan son: en cuanto a los principios, las directrices para empresas multinacionales según la OCDE y el Libro Verde de la Unión Europea. En relación con las guías de implementación y control, el Global Reporting Initiative y la norma ISO 26000. Y en cuanto a los sistemas de gestión el Sistema de Gestión Ética y Responsable (SGE 21) y el Sistema de Gestión de Responsabilidad Social IQNET SR10. Finalmente se diseñó una estructura para la gestión integral de responsabilidad social basada en los estándares internacionales y en el concepto de desarrollo sostenible. Por tanto abarca el desarrollo social, el equilibrio ecológico y el crecimiento económico, lo que permite un desarrollo sinérgico. La originalidad del enfoque consistió en la comprensión de la investigación desde una concepción holística, que permitió la integración de las teorías que tratan el tema de la responsabilidad social a través de un abordaje estructurado. ABSTRACT The present research aims to design a model of social responsibility management underpinned by international standards for companies in the Venezuelan oil sector. This research is not framed in a particular epistemic model as a biased way of looking at reality. Instead, a holistic approach to the research was conducted, understanding the event under study, the management of social responsibility as an event composed of different views of the relationship between corporation and society. The term holistic refers to a trend in understanding the reality from the point of view of the multiple interactions that characterize it. It corresponds to an integrative as well as an explanatory theory that is oriented towards a contextual understanding of the processes, of the participants and of the events. From the holistic conception it was determined that this research is of a projective type. The research proposes solutions to a given situation from a process of inquiry. It implies describing, comparing, explaining and proposing alternative changes, which results in the different research stages. Regarding the research design, applying the holistic cycle, an univariate, contemporary cross-sectional and mixed source design is obtained. It is univariate, because it focuses on the management of social responsibility. It is contemporary cross-sectional, because the event is studied in the present time and a single measurement of data is performed. It relies on mixed source, because in the descriptive and explanatory stages a field design is applied when collecting data directly from the companies under study, while for the analytical and comparative stages applies a documentary design is applied. The data collection techniques were constituted by primary sources from direct observation, document review and the implementation of a structured Likert scale questionnaire. The data analysis comprised descriptive statistical analysis, reliability estimates and analysis of correlation and the path analysis through the SPSS v.19.0 and AMOS V.20 statistical software. In the descriptive and explanatory stages social responsibility management in the oil sector companies was studied. The results indicated that the oil companies operate under the guidelines outlined in the National Development Plan and in accordance with the policies, guidelines, plans and strategies for the hydrocarbons sector, issued by the Ministry of Energy and Petroleum. They also include the social commitment and the environmental policy in their management philosophy. They have in their organizational structure a social development management which deals with social responsibility. Corporate social investment is presented poorly structured and is sometimes improvised since they follow the policy guidelines of the state and not the internal sustainability policy of the oil business. As for the integrity of management companies they do not consider social responsibility in all areas, so they need to expand their conception of responsible management, redefining structures, strategies and processes, with a focus on sustainable management. As for the analytical and comparative stages applied to the study of international guidelines and standards of social responsibility, it was determined that, in terms of the comprehensiveness of management, the initiatives that stand out are the following: With respect to principles, the guidelines for multinational enterprises as indicated by OECD and the Green Paper of the European Union. Regarding the implementation and control guides, the Global Reporting Initiative and the ISO 26000 standard are relevant. And as for management systems the Ethics and Responsible Management System (SGE 21) and the IQNet SR10 Social responsibility management system have to be considered. Finally a framework for the comprehensive management of social responsibility based on international standards and the concept of sustainable development was designed. Hence, social development, ecological balance and economic growth are included allowing therefore a synergistic development. The originality of this approach is the understanding of research in a holistic way, which allows the integration of theories that address the issue of social responsibility through a structured approximation.
Resumo:
En la actualidad existe una gran expectación ante la introducción de nuevas herramientas y métodos para el desarrollo de productos software, que permitirán en un futuro próximo un planteamiento de ingeniería del proceso de producción software. Las nuevas metodologías que empiezan a esbozarse suponen un enfoque integral del problema abarcando todas las fases del esquema productivo. Sin embargo el grado de automatización conseguido en el proceso de construcción de sistemas es muy bajo y éste está centrado en las últimas fases del ciclo de vida del software, consiguiéndose así una reducción poco significativa de sus costes y, lo que es aún más importante, sin garantizar la calidad de los productos software obtenidos. Esta tesis define una metodología de desarrollo software estructurada que se puede automatizar, es decir una metodología CASE. La metodología que se presenta se ajusta al modelo de ciclo de desarrollo CASE, que consta de las fases de análisis, diseño y pruebas; siendo su ámbito de aplicación los sistemas de información. Se establecen inicialmente los principios básicos sobre los que la metodología CASE se asienta. Posteriormente, y puesto que la metodología se inicia con la fijación de los objetivos de la empresa que demanda un sistema informático, se emplean técnicas que sirvan de recogida y validación de la información, que proporcionan a la vez un lenguaje de comunicación fácil entre usuarios finales e informáticos. Además, estas mismas técnicas detallarán de una manera completa, consistente y sin ambigüedad todos los requisitos del sistema. Asimismo, se presentan un conjunto de técnicas y algoritmos para conseguir que desde la especificación de requisitos del sistema se logre una automatización tanto del diseño lógico del Modelo de Procesos como del Modelo de Datos, validados ambos conforme a la especificación de requisitos previa. Por último se definen unos procedimientos formales que indican el conjunto de actividades a realizar en el proceso de construcción y cómo llevarlas a cabo, consiguiendo de esta manera una integridad en las distintas etapas del proceso de desarrollo.---ABSTRACT---Nowdays there is a great expectation with regard to the introduction of new tools and methods for the software products development that, in the very near future will allow, an engineering approach in the software development process. New methodologies, just emerging, imply an integral approach to the problem, including all the productive scheme stages. However, the automatization degree obtained in the systems construction process is very low and focused on the last phases of the software lifecycle, which means that the costs reduction obtained is irrelevant and, which is more important, the quality of the software products is not guaranteed. This thesis defines an structured software development methodology that can be automated, that is a CASE methodology. Such a methodology is adapted to the CASE development cycle-model, which consists in analysis, design and testing phases, being the information systems its field of application. Firstly, we present the basic principies on which CASE methodology is based. Secondly, since the methodology starts from fixing the objectives of the company demanding the automatization system, we use some techniques that are useful for gathering and validating the information, being at the same time an easy communication language between end-users and developers. Indeed, these same techniques will detail completely, consistently and non ambiguously all the system requirements. Likewise, a set of techniques and algorithms are shown in order to obtain, from the system requirements specification, an automatization of the Process Model logical design, and of the Data Model logical design. Those two models are validated according to the previous requirement specification. Finally, we define several formal procedures that suggest which set of activities to be accomplished in the construction process, and how to carry them out, getting in this way integrity and completness for the different stages of the development process.
Resumo:
Contexto: La presente tesis doctoral se enmarca en la actividad de educción de los requisitos. La educción de requisitos es generalmente aceptada como una de las actividades más importantes dentro del proceso de Ingeniería de Requisitos, y tiene un impacto directo en la calidad del software. Es una actividad donde la comunicación entre los involucrados (analistas, clientes, usuarios) es primordial. La efectividad y eficacia del analista en la compresión de las necesidades de clientes y usuarios es un factor crítico para el éxito del desarrollo de software. La literatura se ha centrado principalmente en estudiar y comprender un conjunto específico de capacidades o habilidades personales que debe poseer el analista para realizar de forma efectiva la actividad de educción. Sin embargo, existen muy pocos trabajos que han estudiado dichas capacidades o habilidades empíricamente. Objetivo: La presente investigación tiene por objetivo estudiar el efecto de la experiencia, el conocimiento acerca del dominio y la titulación académica que poseen los analistas en la efectividad del proceso de educción de los requisitos, durante los primeros contactos del analista con el cliente. Método de Investigación: Hemos ejecutado 8 estudios empíricos entre cuasi-experimentos (4) y experimentos controlados (4). Un total de 110 sujetos experimentales han participado en los estudios, entre estudiantes de post-grado de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid y profesionales. La tarea experimental consistió en realizar sesiones de educción de requisitos sobre uno o más dominios de problemas (de carácter conocido y desconocido para los sujetos). Las sesiones de educción se realizaron empleando la entrevista abierta. Finalizada la entrevista, los sujetos reportaron por escrito toda la información adquirida. Resultados: Para dominios desconocidos, la experiencia (entrevistas, requisitos, desarrollo y profesional) del analista no influye en su efectividad. En dominios conocidos, la experiencia en entrevistas (r = 0.34, p-valor = 0.080) y la experiencia en requisitos (r = 0.22, p-valor = 0.279), ejercen un efecto positivo. Esto es, los analistas con más años de experiencia en entrevistas y/o requisitos tienden a alcanzar mejores efectividades. Por el contrario, la experiencia en desarrollo (r = -0.06, p-valor = 0.765) y la experiencia profesional (r = -0.35, p-valor = 0.077), tienden a ejercer un efecto nulo y negativo, respectivamente. En lo que respecta al conocimiento acerca del dominio del problema que poseen los analistas, ejerce un moderado efecto positivo (r=0.31), estadísticamente significativo (p-valor = 0.029) en la efectividad de la actividad de educción. Esto es, los analistas con conocimiento tienden a ser más efectivos en los dominios de problema conocidos. En lo que respecta a la titulación académica, por falta de diversidad en las titulaciones académicas de los sujetos experimentales no es posible alcanzar una conclusión. Hemos podido explorar el efecto de la titulación académica en sólo dos cuasi-experimentos, sin embargo, nuestros resultados arrojan efectos contradictorios (r = 0.694, p-valor = 0.51 y r = -0.266, p-valor = 0.383). Además de las variables estudiadas indicadas anteriormente, hemos confirmado la existencia de variables moderadoras que afectan a la actividad de educción, tales como el entrevistado o la formación. Nuestros datos experimentales confirman que el entrevistado es un factor clave en la actividad de educción. Estadísticamente ejerce una influencia significativa en la efectividad de los analistas (p-valor= 0.000). La diferencia entre entrevistar a uno u otro entrevistado, en unidades naturales, varía entre un 18% - 23% en efectividad. Por otro lado, la formación en requisitos aumenta considerablemente la efectividad de los analistas. Los sujetos que realizaron la educción de requisitos después de recibir una formación específica en requisitos tienden a ser entre un 12% y 20% más efectivos que aquellos que no la recibieron. El efecto es significativo (p-valor = 0.000). Finalmente, hemos observado tres hechos que podrían influir en los resultados de esta investigación. En primer lugar, la efectividad de los analistas es diferencial dependiendo del tipo de elemento del dominio. En dominios conocidos, los analistas con experiencia tienden a adquirir más conceptos que los analistas noveles. En los dominios desconocidos, son los procesos los que se adquieren de forma prominente. En segundo lugar, los analistas llegan a una especie de “techo de cristal” que no les permite adquirir más información. Es decir, el analista sólo reconoce (parte de) los elementos del dominio del problema mencionado. Este hecho se observa tanto en el dominio de problema desconocido como en el conocido, y parece estar relacionado con el modo en que los analistas exploran el dominio del problema. En tercer lugar, aunque los años de experiencia no parecen predecir cuán efectivo será un analista, sí parecen asegurar que un analista con cierta experiencia, en general, tendrá una efectividad mínima que será superior a la efectividad mínima de los analistas con menos experiencia. Conclusiones: Los resultados obtenidos muestran que en dominios desconocidos, la experiencia por sí misma no determina la efectividad de los analistas de requisitos. En dominios conocidos, la efectividad de los analistas se ve influenciada por su experiencia en entrevistas y requisitos, aunque sólo parcialmente. Otras variables influyen en la efectividad de los analistas, como podrían ser las habilidades débiles. El conocimiento del dominio del problema por parte del analista ejerce un efecto positivo en la efectividad de los analistas, e interacciona positivamente con la experiencia incrementando aún más la efectividad de los analistas. Si bien no fue posible obtener conclusiones sólidas respecto al efecto de la titulación académica, si parece claro que la formación específica en requisitos ejerce una importante influencia positiva en la efectividad de los analistas. Finalmente, el analista no es el único factor relevante en la actividad de educción. Los clientes/usuarios (entrevistados) también juegan un rol importante en el proceso de generación de información. ABSTRACT Context: This PhD dissertation addresses requirements elicitation activity. Requirements elicitation is generally acknowledged as one of the most important activities of the requirements process, having a direct impact in the software quality. It is an activity where the communication among stakeholders (analysts, customers, users) is paramount. The analyst’s ability to effectively understand customers/users’ needs represents a critical factor for the success of software development. The literature has focused on studying and comprehending a specific set of personal skills that the analyst must have to perform requirements elicitation effectively. However, few studies have explored those skills from an empirical viewpoint. Goal: This research aims to study the effects of experience, domain knowledge and academic qualifications on the analysts’ effectiveness when performing requirements elicitation, during the first stages of analyst-customer interaction. Research method: We have conducted eight empirical studies, quasi-experiments (four) and controlled experiments (four). 110 experimental subjects participated, including: graduate students with the Escuela Técnica Superior de Ingenieros Informáticos of the Universidad Politécnica de Madrid, as well as researchers and professionals. The experimental tasks consisted in elicitation sessions about one or several problem domains (ignorant and/or aware for the subjects). Elicitation sessions were conducted using unstructured interviews. After each interview, the subjects reported in written all collected information. Results: In ignorant domains, the analyst’s experience (interviews, requirements, development and professional) does not influence her effectiveness. In aware domains, interviewing experience (r = 0.34, p-value = 0.080) and requirements experience (r = 0.22, p-value = 0.279), make a positive effect, i.e.: the analysts with more years of interviewing/requirements experience tend to achieve higher effectiveness. On the other hand, development experience (r = -0.06, p-value = 0.765) and professional experience (r = -0.35, p-value = 0.077) tend to make a null and negative effect, respectively. On what regards the analyst’s problem domain knowledge, it makes a modest positive effect (r=0.31), statistically significant (p-value = 0.029) on the effectiveness of the elicitation activity, i.e.: the analysts with tend to be more effective in problem domains they are aware of. On what regards academic qualification, due to the lack of diversity in the subjects’ academic degrees, we cannot come to a conclusion. We have been able to explore the effect of academic qualifications in two experiments; however, our results show opposed effects (r = 0.694, p-value = 0.51 y r = -0.266, p-value = 0.383). Besides the variables mentioned above, we have confirmed the existence of moderator variables influencing the elicitation activity, such as the interviewee and the training. Our data confirm that the interviewee is a key factor in the elicitation activity; it makes statistically significant effect on analysts’ effectiveness (p-value = 0.000). Interviewing one or another interviewee represents a difference in effectiveness of 18% - 23%, in natural units. On the other hand, requirements training increases to a large extent the analysts’ effectiveness. Those subjects who performed requirements elicitation after specific training tend to be 12% - 20% more effective than those who did not receive training. The effect is statistically significant (p-value = 0.000). Finally, we have observed three phenomena that could have an influence on the results of this research. First, the analysts’ effectiveness differs depending on domain element types. In aware domains, experienced analysts tend to capture more concepts than novices. In ignorant domains, processes are identified more frequently. Second, analysts get to a “glass ceiling” that prevents them to acquire more information, i.e.: analysts only identify (part of) the elements of the problem domain. This fact can be observed in both the ignorant and aware domains. Third, experience years do not look like a good predictor of how effective an analyst will be; however, they seem to guarantee that an analyst with some experience years will have a higher minimum effectiveness than the minimum effectiveness of analysts with fewer experience years. Conclusions: Our results point out that experience alone does not explain analysts’ effectiveness in ignorant domains. In aware domains, analysts’ effectiveness is influenced the experience in interviews and requirements, albeit partially. Other variables influence analysts’ effectiveness, e.g.: soft skills. The analysts’ problem domain knowledge makes a positive effect in analysts’ effectiveness; it positively interacts with the experience, increasing even further analysts’ effectiveness. Although we could not obtain solid conclusions on the effect of the academic qualifications, it is plain clear that specific requirements training makes a rather positive effect on analysts’ effectiveness. Finally, the analyst is not the only relevant factor in the elicitation activity. The customers/users (interviewees) play also an important role in the information generation process.