42 resultados para Software de gestión


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El vertiginoso avance de la informática y las telecomunicaciones en las últimas décadas ha incidido invariablemente en la producción y la prestación de servicios, en la educación, en la industria, en la medicina, en las comunicaciones e inclusive en las relaciones interpersonales. No obstante estos avances, y a pesar de la creciente aportación del software al mundo actual, durante su desarrollo continuamente se incurre en el mismo tipo de problemas que provocan un retraso sistemático en los plazos de entrega, se exceda en presupuesto, se entregue con una alta tasa de errores y su utilidad sea inferior a la esperada. En gran medida, esta problemática es atribuible a defectos en los procesos utilizados para recoger, documentar, acordar y modificar los requisitos del sistema. Los requisitos son los cimientos sobre los cuáles se construye un producto software, y sin embargo, la incapacidad de gestionar sus cambios es una de las principales causas por las que un producto software se entrega fuera de tiempo, se exceda en coste y no cumpla con la calidad esperada por el cliente. El presente trabajo de investigación ha identificado la necesidad de contar con metodologías que ayuden a desplegar un proceso de Gestión de Requisitos en pequeños grupos y entornos de trabajo o en pequeñas y medianas empresas. Para efectos de esta tesis llamaremos Small-Settings a este tipo de organizaciones. El objetivo de este trabajo de tesis doctoral es desarrollar un metamodelo que permita, por un lado, la implementación y despliegue del proceso de Gestión de Requisitos de forma natural y a bajo coste y, por otro lado, el desarrollo de mecanismos para la mejora continua del mismo. Este metamodelo esta soportado por el desarrollo herramientas que permiten mantener una biblioteca de activos de proceso para la Gestión de Requisitos y a su vez contar con plantillas para implementar el proceso partiendo del uso de activos previamente definidos. El metamodelo contempla el desarrollo de prácticas y actividades para guiar, paso a paso, la implementación del proceso de Gestión de Requisitos para una Small-Setting utilizando un modelo de procesos como referencia y una biblioteca de activos de proceso como principal herramienta de apoyo. El mantener los activos de proceso bien organizados, indexados, y fácilmente asequibles, facilita la introducción de las mejores prácticas al interior de una organización. ABSTRACT The fast growth of computer science and telecommunication in recent decades has invariably affected the provision of products and services in education, industry, healthcare, communications and also interpersonal relationships. In spite of such progress and the active role of the software in the world, its development and production continually incurs in the same type of problems that cause systematic delivery delays, over budget, a high error rate and consequently its use is lower than expected. These problems are largely attributed to defects in the processes used to identify, document, organize, and track all system's requirements. It is generally accepted that requirements are the foundation upon which the software process is built, however, the inability to manage changes in requirements is one of the principal factors that contribute to delays on the software development process, which in turn, may cause customer dissatisfaction. The aim of the present research work has identified the need for appropriate methodologies to help on the requirement management process for those organizations that are categorised as small and medium size enterprises, small groups within large companies, or small projects. For the purposes of this work, these organizations are named Small-Settings. The main goal of this research work is to develop a metamodel to manage the requirement process using a Process Asset Library (PAL) and to provide predefined tools and actives to help on the implementation process. The metamodel includes the development of practices and activities to guide step by step the deployment of the requirement management process in Small-Settings. Keeping assets organized, indexed, and readily available are a main factor to the success of the organization process improvement effort and facilitate the introduction of best practices within the organization. The Process Asset Library (PAL) will become a repository of information used to keep and make available all process assets that are useful to those who are defining, implementing, and managing processes in the organization.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente proyecto fin de carrera, realizado por el ingeniero técnico en telecomunicaciones Pedro M. Matamala Lucas, es la fase final de desarrollo de un proyecto de mayor magnitud correspondiente al software dedeo forense SAVID. El propósito del proyecto en su totalidad es la creación de una herramienta informática capacitada para realizar el análisis de ficheros dedeo, codificados y comprimidos por el sistema DV –Digital Video-. El objetivo del análisis, es aportar información acerca de si la cinta magnética presenta indicios de haber sido manipulada con una edición posterior a su grabación original, además, de mostrar al usuario otros datos de interés como las especificaciones técnicas de la señal dedeo y audio. Por lo tanto, se facilitará al usuario, analista dedeo forense, información que le ayude a valorar la originalidad del contenido del soporte que es sujeto del análisis. El objetivo específico de esta fase final, es la creación de la interfaz de usuario del software, que informa tanto del código binario de los sectores significativos, como de su interpretación tras el análisis. También permitirá al usuario el reporte de los resultados, además de otras funcionalidades que le permitan la navegación por los sectores del código que han sido modificados como efecto colateral de la edición de la cinta magnética original. Otro objetivo importante del proyecto ha sido la investigación de metodologías y técnicas de desarrollo de software para su posterior implementación, buscando con esto, una mayor eficiencia en la gestión del tiempo y una mayor calidad de software con el fin de garantizar su evolución y sostenibilidad en el futuro. Se ha hecho hincapié en las metodologías ágiles que han ido ganando relevancia en el sector de las tecnologías de la información en las últimas décadas, sustituyendo a metodologías clásicas como el desarrollo en cascada. Su flexibilidad durante el ciclo de vida del software, permite obtener mejores resultados cuando las especificaciones no están del todo definidas, ajustándose de este modo a las condiciones del proyecto. Resumiendo las especificaciones técnicas del software, C++ es el lenguaje de programación orientado a objetos con el que se ha desarrollado, utilizándose la tecnología MFC -Microsoft Foundation Classes- para la implementación. Es un proyecto MFC de tipo cuadro de dialogo,creado, compilado y publicado, con la herramienta de desarrollo integrado Microsoft Visual Studio 2010. La arquitectura con la que se ha estructurado es la arquetípica de tres capas, compuesta por la interfaz de usuario, capa de negocio y capa de acceso a datos. Se ha visto necesario configurar el proyecto con compatibilidad con CLR –Common Languages Runtime- para poder implementar la funcionalidad de creación de reportes. Acompañando a la aplicación informática, se presenta la memoria del proyecto y sus anexos correspondientes a los documentos EDRF –Especificaciones Detalladas de Requisitos funcionales-, EIU –Especificaciones de Interfaz de Usuario , DT -Diseño Técnico- y Guía de Usuario. SUMMARY. This dissertation, carried out by the telecommunications engineer Pedro M. Matamala Lucas, is in its final stage and is part of a larger project for the software of forensic video called SAVID. The purpose of the entire project is the creation of a software tool capable of analyzing video files that are coded and compressed by the DV -Digital Video- System. The objective of the analysis is to provide information on whether the magnetic tape shows signs of having been tampered with after the editing of the original recording, and also to show the user other relevant data and technical specifications of the video signal and audio. Therefore the user, forensic video analyst, will have information to help assess the originality of the content of the media that is subject to analysis. The specific objective of this final phase is the creation of the user interface of the software that provides information about the binary code of the significant sectors and also its interpretation after analysis. It will also allow the user to report the results, and other features that will allow browsing through the sections of the code that have been modified as a secondary effect of the original magnetic tape being tampered. Another important objective of the project is the investigation of methodologies and software development techniques to be used in deployment, with the aim of greater efficiency in time management and enhanced software quality in order to ensure its development and maintenance in the future. Agile methodologies, which have become important in the field of information technology in recent decades, have been used during the execution of the project, replacing classical methodologies such as Waterfall Development. The flexibility, as the result of using by agile methodologies, during the software life cycle, produces better results when the specifications are not fully defined, thus conforming to the initial conditions of the project. Summarizing the software technical specifications, C + + the programming language – which is object oriented and has been developed using technology MFC- Microsoft Foundation Classes for implementation. It is a project type dialog box, created, compiled and released with the integrated development tool Microsoft Visual Studio 2010. The architecture is structured in three layers: the user interface, business layer and data access layer. It has been necessary to configure the project with the support CLR -Common Languages Runtime – in order to implement the reporting functionality. The software application is submitted with the project report and its annexes to the following documents: Functional Requirements Specifications - Detailed User Interface Specifications, Technical Design and User Guide.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este proyecto surge de la búsqueda de un campo de aplicación de las Redes de Sensores Inalámbricos, WSN, aplicadas a la vida cotidiana. Dicha aplicación consistirá en un sistema de gestión de alumbrado público a través del cual se buscará una reducción del consumo energético y del gasto económico, así como una gestión en tiempo de real de la operativa del alumbrado. Para ello se desarrollará un sistema basado en nodos instalados en farolas, los cuales se comunicarán entre sí para funcionar de la forma más optimizada posible, complementándose todo ello con un “nodo base”, que se encargará de servir de nexo entre la red y los diferentes elementos necesarios para la configuración de los nodos y la recogida de información. Esta información servirá para que una página web pueda mostrar al usuario final toda la información necesaria para tener un control sobre el estado actual de funcionamiento de cada una de las farolas, control del consumo, así como detección de averías. En este proyecto se describen las tecnologías actuales relacionadas con el campo de las WSN y los sensores, presentando aplicaciones que en la actualidad se encuentran desplegadas. Se expone también una propuesta real de despliegue presentada al Ayuntamiento de una localidad, Pedro Muñoz, para implementar un proyecto piloto en varias de sus calles. Se describe el entorno, tanto hardware como software, explicando los algoritmos utilizados para las asociaciones entre nodos, diagramas de funcionamiento en las distintas fases de la que está compuesta la operativa de los nodos, la codificación de los programas que se necesitan ejecutar para el correcto funcionamiento del sistema. Por último, debido a que el campo de las WSN está en constante evolución, se presentarán diversas ideas para implementar diversas mejoras que pudieran ser desplegadas en un futuro, ampliando la oferta de aplicaciones a ofrecer al usuario final. ABSTRACT. This project results from the development for an application field of wireless Sensor Networks (WSN), applied to daily life. That application will consist of a system of street lighting management, through which it will seek a reduction in energy consumption and economic cost, and a real-time management of the operative of the street lighting. To do this, a system based on nodes installed in streetlights will be developed. These nodes will communicate with each other to operate in the most optimized way possible, complementing all with a Base-station, which will act as a link between the network and the components required for configuring the nodes and collecting data from them. This information will help a website to show the end user all the information needed to have a control on the current operating status of each of the streetlights, consumption control and troubleshooting. To this end, this project will describe the current technologies related to the field of WSN and sensors, presenting applications that are currently deployed. It will be also exposed a real proposal submitted to a city council to deploy a pilot project in many of its streets. Will be described the environment, both hardware and software, explaining the algorithms used for the associations between nodes, operating diagrams in the different phases of the nodes operation, and the coding of programs that are needed for proper system performance. Finally, because the field of WSN is in constant evolution, will be presented different ideas to implement various improvements which could be deployed in the future, extending the range of applications to provide to end-users.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesis contiene un modelo dirigido a servir de soporte a la toma de decisiones para la mejora de la gestión empresarial en las pymes. Para la construcción del modelo, se dividió la gestión empresarial en doce (12) subsistemas de gestión, a saber: Gestión Estratégica, Mercadeo, Gestión Productiva, Recursos Humanos, Gestión Financiera, Logística, Mantenimiento, Gestión de la Calidad, Seguridad y Salud Laboral, Gestión de la Información y la Comunicación, Innovación y Gestión Ambiental. El enfoque teórico utilizado es que en cada uno de estos subsistemas está contenido el ciclo formado por los procesos Planificar/Hacer/Verificar/Actuar (PHVA); la hipótesis de partida es que existe una correlación positiva significativa entre los procesos o variables exógenas Planificar, Hacer, Verificar, Actuar y el proceso o variable endógena Gestión. Cualquier mejora que se introduzca en los procesos del ciclo tendrá un efecto positivo en la gestión y por ende, en los resultados de la organización. Para la determinación de los factores o ítems que conforman cada uno de los procesos del ciclo PHVA, se llevó a cabo una revisión del estado del arte para cada subsistema de gestión; posteriormente, los ítems seleccionados (335 en total) fueron validados por un equipo de expertos en el tema. Para recopilar los datos necesarios que soportan estadísticamente al modelo, se llevó a cabo un estudio empírico, mediante la aplicación de cuestionarios y entrevistas no estructuradas al personal perteneciente a un grupo de ciento veinticinco (125) pymes del sector industrial, en el Estado Bolívar, Venezuela. El estudio empírico, de tipo transversal, abarcó un período de tres años, en el cual se entrevistaron a 4.500 individuos; la información obtenida se utilizó además, para caracterizar la gestión de las pymes industriales. El análisis de datos comprendió el análisis descriptivo de los mismos, estimación de fiabilidad, análisis factorial exploratorio y confirmatorio, análisis de coeficientes de correlación y de regresión, a través del software SPSS v.20. Para examinar las relaciones causales entre los procesos P/H/V/A y cada uno de los subsistemas de gestión, se utilizó la técnica del análisis de senderos (path analysis), con el uso de AMOS v.20. Los resultados del análisis estadístico señalan que los procesos de ejecución y planificación (y por ende las variables que contienen) tienen el mayor impacto significativo sobre la gestión, respecto a los procesos de verificación y mejora continua, en el sector industrial estudiado. El prototipo de modelo de sistema inteligente diseñado cuenta con una base de conocimientos, construida a partir de la experiencia de los expertos y la revisión del estado del arte; una base de hechos representada por los resultados de la evaluación aplicada a cada empresa, y un motor de inferencia, el cual identifica las áreas de mejora y propone las soluciones para resolver los problemas de mayor impacto. El aporte de esta investigación puede ser valorado de dos maneras: desde el punto de vista empresarial, en el sentido de proveer a las pymes de una herramienta para evaluar y mejorar su gestión, y académico, al proporcionar una guía para comprender mejor la interrelación de las variables envueltas en los diversos procesos de gestión de una empresa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La razón de este proyecto, es la de desarrollar el módulo de cursos de la plataforma de Massive Online Open Courses (MOOCs), CloudRoom. Dicho módulo está englobado en una arquitectura orientada a servicios (SOA) y en una infraestructura de Cloud Computing utilizando Amazon Web Services (AWS). Nuestro objetivo es el de diseñar un Software as a Service (SaaS) robusto con las cualidades que a un producto de este tipo se le estiman: alta disponibilidad, alto rendimiento, gran experiencia de usuario y gran extensibilidad del sistema. Para lograrlo, se llevará a cabo la integración de las últimas tendencias tecnológicas dentro del desarrollo de sistemas distribuidos como Neo4j, Node.JS, Servicios RESTful, CoffeeScript. Todo esto siguiendo un estrategia de desarrollo PLAN-DO-CHECK utilizando Scrum y prácticas de metodologías ágiles. ---ABSTRACT---The reason of this Project is to develop the courses‟ module of CloudRoom, a Massive Online Open Courses platform. This module is encapsulated in a service-oriented architecture (SOA) based on a Cloud Computing infrastructure built on Amazon Web Services (AWS). Our goal is to design a robust Software as a Service (SaaS) with the qualities that are estimated in a product of this type: high availability, high performance, great user experience and great extensibility of the system. In order to address this, we carry out the integration of the latest technology trends in the development of distributed systems: Neo4j, Node.JS, RESTful Services and CoffeeScript. All of this, following a development strategy PLAN-DO-CHECK, using Scrum and practices of agile methodologies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El proceso de cambio de una sociedad industrial a una sociedad del conocimiento, que experimenta el mundo globalizado en el siglo XXI, induce a las empresas y organizaciones a desarrollar ventajas competitivas y sostenibles basadas en sus activos intangibles, entre los cuales destacan los sistemas de gestión en general y los sistemas de gestión de la calidad (SGC) en particular. Las organizaciones dedicadas a la producción de petróleo están influenciadas por dicha tendencia. El petróleo es un recurso natural con reservas limitadas, cuya producción y consumo ha crecido progresivamente, aportando la mayor cuota (35 %) del total de la energía que se consume en el mundo contemporáneo, aporte que se mantendrá hasta el año 2035, según las previsiones más conservadoras. Por tanto, se hace necesario desarrollar modelos de producción innovadores, que contribuyan a la mejora del factor de recobro de los yacimientos y de la vida útil de los mismos, al tiempo que satisfagan los requerimientos de producción y consumo diarios de los exigentes mercados globales. El objeto de esta investigación es el desarrollo de un modelo de gestión de la calidad y su efecto en el desempeño organizacional, a través del efecto mediador de los constructos satisfacción del cliente interno y gestión del conocimiento en la producción de petróleo. Esta investigación de carácter explicativo, no experimental, transeccional y ex-postfacto, se realizó en la región petrolífera del lago de Maracaibo, al occidente de Venezuela, la cual tiene más de 70 años en producción y cuenta con yacimientos maduros. La población objeto de estudio fue de 369 trabajadores petroleros, quienes participaron en las mesas técnicas de la calidad, durante los meses de mayo y julio del año 2012, los cuales en su mayoría están en proceso de formación como analistas, asesores y auditores de los SGC. La técnica de muestreo aplicada fue de tipo aleatorio simple, con una muestra de 252 individuos. A la misma se le aplicó un cuestionario diseñado ad hoc, el cual fue validado por las técnicas de juicio de expertos y prueba piloto. El procedimiento de investigación se realizó a través de una secuencia, que incluyó la elaboración de un modelo teórico, basado en la revisión del estado del arte; un modelo factorial, sobre la base del análisis factorial de los datos de la encuesta; un modelo de regresión lineal, elaborado a través del método de regresión lineal simple y múltiple; un modelo de análisis de sendero, realizado con el software Amos 20 SPSS y finalmente, un modelo informático, realizado con el simulador Vensim PLE v.6.2. Los resultados obtenidos indican que el modelo teórico se transformó en un modelo empírico, en el cual, la variable independiente fue el SGC, la variable mediadora fue la integración de las dimensiones eliminación de la no conformidad, satisfacción del cliente interno y aprendizaje organizacional (ENCSCIAO) y la variable respuesta la integración de las dimensiones desempeño organizacional y aprendizaje organizacional (DOOA). Se verificó el efecto mediador del ENSCIAO sobre la relación SGC-DOOA con una bondad del ajuste, del 42,65%. En el modelo de regresión múltiple se encontró que las variables determinantes son eliminación de la no conformidad (ENC), conocimiento adquirido (CA) y conocimiento espontáneo (CE), lo cual fue corroborado con el modelo de análisis de sendero. El modelo informático se desarrolló empleando datos aproximados de una unidad de producción tipo, generándose cuatro escenarios; siendo el más favorable, aquel en el cual se aplicaba el SGC y variables relacionadas, reduciendo la desviación de la producción, incrementando el factor de recobro y ampliando la vida útil del yacimiento. Se concluye que la aplicación del SGC y constructos relacionados favorece el desempeño y la producción de las unidades de explotación de yacimientos petrolíferos maduros. Los principales aportes de la tesis son la obtención de un modelo de gestión de la producción de petróleo en yacimientos maduros, basado en los SGC. Asimismo, el desarrollo de un concepto de gestión de la calidad asociado a la reducción de la desviación de la producción petrolífera anual, al incremento del factor de recobro y al aumento de la vida útil del yacimiento. Las futuras líneas de investigación están orientadas a la aplicación del modelo en contextos reales y específicos, para medir su impacto y realizar los ajustes pertinentes. ABSTRACT The process of change from an industrial society to a knowledge-based society, which undergoes the globalized world in the twenty-first century, induces companies and organizations to develop a sustainable and competitive advantages based on its intangible assets, among which are noteworthy the management systems in general and particularly the quality management systems (QMS). Organizations engaged in oil production are influenced by said trend. Oil is a natural resource with limited reserves, where production and consumption has grown progressively, providing the largest share (35%) of the total energy consumed in the contemporary world, a contribution that will remain until the year 2035 according to the more conservative trust estimations. Therefore, it becomes necessary to develop innovative production models which contribute with the improvement of reservoirs´ recovery factor and the lifetime thereof, while meeting the production requirements and daily consumption of demanding global markets. The aim of this research is to develop a model of quality management and its effect on organizational performance through the mediator effect of the constructs, internal customer satisfaction and knowledge management in oil production. This research of explanatory nature, not experimental, transactional and expos-facto was carried out in the oil-region of Maracaibo Lake located to the west of Venezuela, which has more than 70 years in continuous production and has mature reservoirs. The population under study was 369 oil workers who participated in the technical quality workshops, during the months of May and July of 2012, the majority of which were in the process of training as analysts, consultants and auditors of the QMS. The sampling technique applied was simple random type. To a sample of 252 individuals of the population it was applied an ad hoc designed questionnaire, which was validated by the techniques of expert judgment and pilot test. The research procedure was performed through a sequence, which included the elaboration of a theoretical model, based on the review of the state of the art; a factorial model with based on factorial analysis of the survey data; a linear regression model, developed through the method of simple and multiple linear regression; a structural equation model, made with software °Amos 20 SPSS° and finally, a computer model, performed with the simulator Vensim PLE v.6.2. The results indicate that the theoretical model was transformed into an empirical model, in which the independent variable was the QMS, the mediator variable was the integration of the dimensions: elimination of non-conformity, internal customer satisfaction and organizational learning (ENCSCIAO) and the response variable the integration of the dimensions, organizational performance and learning organizational (DOOA). ENSCIAO´s mediator effect on the relation QMS-DOOA was verified with a goodness of fit of 42,65%. In the multiple regression model was found to be the determining variables are elimination of nonconformity (ENC), knowledge acquired (CA) and spontaneous knowledge (EC), which was verified with the structural equation model. The computer model was developed based on approximate data of an oil production unit type, creating four (04) scenarios; being the most favorable, that one which it was applied the QMS and related variables, reducing the production deviation, increasing the recovery factor and extending the lifetime of the reservoir. It is concluded that QMS implementation powered with the related constructs, favors performance and production of mature oilfield of exploitation reservoirs units. The main contributions of this thesis are obtaining a management model for oil production in mature oilfields, based on QMS. In addition, development of a concept of quality associated to reduce the annual oil production deviation, increase the recovery factor and increase oilfield lifetime. Future lines of research are oriented to the implementation of this model in real and specific contexts to measure its impact and make the necessary adjustments that might take place.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo tiene como objetivo diseñar un modelo de gestión de responsabilidad social sustentado en estándares internacionales para las empresas del sector petrolero venezolano. Esta investigación no se suscribe a un modelo epistémico en particular, como forma parcializada de ver la realidad. Por el contrario, se realizó un abordaje holístico de la investigación, entendiendo el evento de estudio, la gestión de la responsabilidad social, como un evento integrado por distintas visiones de la relación empresa – sociedad. La holística se refiere a una tendencia que permite entender la realidad desde el punto de vista de las múltiples interacciones que la caracterizan. Corresponde a una actitud integradora como también a una teoría explicativa que se orienta hacia una comprensión contextual de los procesos, de los protagonistas y de los eventos. Desde la concepción holística se determinó que la investigación es de tipo proyectiva. Este tipo de investigación propone soluciones a una situación determinada a partir de un proceso de indagación. Implica describir, comparar, explicar y proponer alternativas de cambios, lo que da lugar a los estadios de investigación. En cuanto al diseño de la investigación, aplicando el ciclo holístico, se tiene un diseño que es univariable, transeccional contemporáneo y de fuente mixta. Univariable, porque se enfoca en la gestión de responsabilidad social. Transeccional contemporáneo, porque el evento se estudia en la actualidad y se realiza una sola medición de los datos. De fuente mixta, porque en los estadios descriptivo y explicativo se aplica un diseño de campo, al recolectar los datos directamente en las empresas objeto de estudio, mientras que para los estadios analítico y comparativo se aplica un diseño documental. Las técnicas de recolección de la información estuvieron constituidas por fuentes primarias provenientes de la observación directa, la revisión documental y la aplicación de un cuestionario estructurado tipo escala Likert. El análisis de los datos comprendió el análisis estadístico descriptivo, la estimación de la fiabilidad y el análisis de coeficientes de correlación y análisis de ruta, a través del software estadístico SPSS v.19.0 y AMOS v.20. En los estadios descriptivo y explicativo se estudió la gestión de la responsabilidad social en las empresas del sector petrolero. Los resultados indicaron que las empresas del sector petrolero actúan bajo los lineamientos trazados en el Plan de Desarrollo Nacional y de acuerdo con las políticas, directrices, planes y estrategias para el sector de los hidrocarburos, dictadas por el Ministerio de Energía y Petróleo. También incluyen el compromiso social y la política ambiental en su filosofía de gestión. Tienen en su estructura organizacional una gerencia de desarrollo social que gestiona la responsabilidad social. Las actividades de inversión social se presentan poco estructuradas y en ocasiones se improvisan ya que atienden a los lineamientos políticos del Estado y no a una política interna de sostenibilidad del negocio petrolero. En cuanto a la integralidad de la gestión las empresas no consideran la responsabilidad social en todas las áreas, por lo que deben ampliar su concepción de una gestión responsable, redefiniendo estructuras, estrategias y procesos, con una orientación hacia una gestión sustentable. En cuanto a los estadios analítico y comparativo aplicados al estudio de las guías y estándares internacionales de responsabilidad social, se determinó que en términos de la integralidad de la gestión las iniciativas que destacan son: en cuanto a los principios, las directrices para empresas multinacionales según la OCDE y el Libro Verde de la Unión Europea. En relación con las guías de implementación y control, el Global Reporting Initiative y la norma ISO 26000. Y en cuanto a los sistemas de gestión el Sistema de Gestión Ética y Responsable (SGE 21) y el Sistema de Gestión de Responsabilidad Social IQNET SR10. Finalmente se diseñó una estructura para la gestión integral de responsabilidad social basada en los estándares internacionales y en el concepto de desarrollo sostenible. Por tanto abarca el desarrollo social, el equilibrio ecológico y el crecimiento económico, lo que permite un desarrollo sinérgico. La originalidad del enfoque consistió en la comprensión de la investigación desde una concepción holística, que permitió la integración de las teorías que tratan el tema de la responsabilidad social a través de un abordaje estructurado. ABSTRACT The present research aims to design a model of social responsibility management underpinned by international standards for companies in the Venezuelan oil sector. This research is not framed in a particular epistemic model as a biased way of looking at reality. Instead, a holistic approach to the research was conducted, understanding the event under study, the management of social responsibility as an event composed of different views of the relationship between corporation and society. The term holistic refers to a trend in understanding the reality from the point of view of the multiple interactions that characterize it. It corresponds to an integrative as well as an explanatory theory that is oriented towards a contextual understanding of the processes, of the participants and of the events. From the holistic conception it was determined that this research is of a projective type. The research proposes solutions to a given situation from a process of inquiry. It implies describing, comparing, explaining and proposing alternative changes, which results in the different research stages. Regarding the research design, applying the holistic cycle, an univariate, contemporary cross-sectional and mixed source design is obtained. It is univariate, because it focuses on the management of social responsibility. It is contemporary cross-sectional, because the event is studied in the present time and a single measurement of data is performed. It relies on mixed source, because in the descriptive and explanatory stages a field design is applied when collecting data directly from the companies under study, while for the analytical and comparative stages applies a documentary design is applied. The data collection techniques were constituted by primary sources from direct observation, document review and the implementation of a structured Likert scale questionnaire. The data analysis comprised descriptive statistical analysis, reliability estimates and analysis of correlation and the path analysis through the SPSS v.19.0 and AMOS V.20 statistical software. In the descriptive and explanatory stages social responsibility management in the oil sector companies was studied. The results indicated that the oil companies operate under the guidelines outlined in the National Development Plan and in accordance with the policies, guidelines, plans and strategies for the hydrocarbons sector, issued by the Ministry of Energy and Petroleum. They also include the social commitment and the environmental policy in their management philosophy. They have in their organizational structure a social development management which deals with social responsibility. Corporate social investment is presented poorly structured and is sometimes improvised since they follow the policy guidelines of the state and not the internal sustainability policy of the oil business. As for the integrity of management companies they do not consider social responsibility in all areas, so they need to expand their conception of responsible management, redefining structures, strategies and processes, with a focus on sustainable management. As for the analytical and comparative stages applied to the study of international guidelines and standards of social responsibility, it was determined that, in terms of the comprehensiveness of management, the initiatives that stand out are the following: With respect to principles, the guidelines for multinational enterprises as indicated by OECD and the Green Paper of the European Union. Regarding the implementation and control guides, the Global Reporting Initiative and the ISO 26000 standard are relevant. And as for management systems the Ethics and Responsible Management System (SGE 21) and the IQNet SR10 Social responsibility management system have to be considered. Finally a framework for the comprehensive management of social responsibility based on international standards and the concept of sustainable development was designed. Hence, social development, ecological balance and economic growth are included allowing therefore a synergistic development. The originality of this approach is the understanding of research in a holistic way, which allows the integration of theories that address the issue of social responsibility through a structured approximation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La actividad de muchas empresas, y en concreto las de software, está basada en proyectos. Típicamente, estas empresas tendrán un modelo de negocio orientado a productos para un mercado abierto, o un modelo de negocio orientado a consultoría para otras empresas. La empresa LeadClic Solutions se incluye en el segundo grupo. Se trata de una consultoría especializada en una tecnología emergente, Salesforce, cuya labor consiste en el desarrollo de aplicaciones cloud en esta plataforma que satisfagan las necesidades de sus clientes, desde empresas relativamente pequeñas hasta grandes empresas internacionales. Ante esta variedad de realidades, LeadClic necesita una herramienta versátil que permita una gestión eficaz de proyectos de distinta índole, integrando al mismo tiempo gestión de clientes, planificación, control de tiempo y costes, seguimiento, y gestión de recursos humanos. En la actualidad, la empresa basa esta gestión en un gran elenco de programas especializados, desatacando hojas de cálculo, herramientas de gestión de proyectos en diversos programas locales o en la nube, correo electrónico, servicios de comunicación y desarrollos personalizados en Salesforce. El objetivo de este Trabajo Fin de Grado es el diseño, implementación y validación de una herramienta en la nube, sobre la plataforma Salesforce, que integre las soluciones a todas las necesidades de la empresa. ---ABSTRACT---Many companies’ activity, in particular software companies’, is based on projects. Typically, these companies have a product for open market - oriented business model, or a B2B consultancy business model. The company LeadClic Solutions is included in the second group. It is a small consultancy, specialized in an emergent technology, Salesforce, that develops cloud applications in that platform to satisfy its clients’ needs, from small companies to big international ones. Faced with this variety of situations, LeadClic needs a versatile tool able to cope with an effective management of projects of different types, integrating at once client management, planning, time and costs control, monitoring, and human resources management. At the moment, the company bases this management on a wide range of specialized programs, such as spreadsheets, local and cloud based project management tools, emailing, communication services and Salesforce based custom developments. This Final Degree Project seeks to design, implement and validate a cloud based tool, on the Salesforce platform, to integrate the solution to all of the company’s needs into one single application.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El trabajo de fin de grado que se va a definir detalladamente en esta memoria, trata de poner de manifiesto muchos de los conocimientos que he adquirido a lo largo de la carrera, aplicándolos en un proyecto real. Se ha desarrollado una plataforma capaz de albergar ideas, escritas por personas de todo el mundo que buscan compartirlas con los demás, para que estas sean comentadas, valoradas y entre todos poder mejorarlas. Estas ideas pueden ser de cualquier ámbito, por tanto, se da la posibilidad de clasificarlas en las categorías que mejor encajen con la idea. La aplicación ofrece una API RESTful muy descriptiva, en la que se ha identificado y estructurado cada recurso, para que a través de los “verbos http” se puedan gestionar todos los elementos de una forma fácil y sencilla, independientemente del cliente que la utilice. La arquitectura está montada siguiendo el patrón de diseño modelo vista-controlador, utilizando las últimas tecnologías del mercado como Spring, Liferay, SmartGWT y MongoDB (entre muchas otras) con el objetivo de crear una aplicación segura, escalable y modulada, por lo que se ha tenido que integrar todos estos frameworks. Los datos de la aplicación se hacen persistentes en dos tipos de bases de datos, una relacional (MySQL) y otra no relacional (MongoDB), aprovechando al máximo las características que ofrecen cada una de ellas. El cliente propuesto es accesible mediante un navegador web, se basa en el portal de Liferay. Se han desarrollado varios “Portlets o Widgets”, que componen la estructura de contenido que ve el usuario final. A través de ellos se puede acceder al contenido de la aplicación, ideas, comentarios y demás contenidos sociales, de una forma agradable para el usuario, ya que estos “Portlets” se comunican entre sí y hacen peticiones asíncronas a la API RESTful sin necesidad de recargar toda la estructura de la página. Además, los usuarios pueden registrarse en el sistema para aportar más contenidos u obtener roles que les dan permisos para realizar acciones de administración. Se ha seguido una metodología “Scrum” para la realización del proyecto, con el objetivo de dividir el proyecto en tareas pequeñas y desarrollarlas de una forma ágil. Herramientas como “Jenkins” me han ayudado a una integración continua y asegurando mediante la ejecución de los test de prueba, que todos los componentes funcionan. La calidad ha sido un aspecto principal en el proyecto, se han seguido metodologías software y patrones de diseño para garantizar un diseño de calidad, reutilizable, óptimo y modulado. El uso de la herramienta “Sonar” ha ayudado a este cometido. Además, se ha implementado un sistema de pruebas muy completo de todos los componentes de la aplicación. En definitiva, se ha diseñado una aplicación innovadora de código abierto, que establece unas bases muy definidas para que si algún día se pone en producción, sirva a las personas para compartir pensamientos o ideas ayudando a mejorar el mundo en el que vivimos. ---ABSTRACT---The Final Degree Project, described in detail in this report, attempts to cover a lot of the knowledge I have acquired during my studies, applying it to a real project. The objective of the project has been to develop a platform capable of hosting ideas from people all over the world, where users can share their ideas, comment on and rate the ideas of others and together help improving them. Since these ideas can be of any kind, it is possible to classify them into suitable categories. The application offers a very descriptive API RESTful, where each resource has been identified and organized in a way that makes it possible to easily manage all the elements using the HTTP verbs, regardless of the client using it. The architecture has been built following the design pattern model-view-controller, using the latest market technologies such as Spring, Liferay, Smart GWT and MongoDB (among others) with the purpose of creating a safe, scalable and adjustable application. The data of the application are persistent in two different kinds of databases, one relational (MySQL) and the other non-relational (MongoDB), taking advantage of all the different features each one of them provides. The suggested client is accessible through a web browser and it is based in Liferay. Various “Portlets" or "Widgets” make up the final content of the page. Thanks to these Portlets, the user can access the application content (ideas, comments and categories) in a pleasant way as the Portlets communicate with each other making asynchronous requests to the API RESTful without the necessity to refresh the whole page. Furthermore, users can log on to the system to contribute with more contents or to obtain administrator privileges. The Project has been developed following a “Scrum” methodology, with the main objective being that of dividing the Project into smaller tasks making it possible to develop each task in a more agile and ultimately faster way. Tools like “Jenkins” have been used to guarantee a continuous integration and to ensure that all the components work correctly thanks to the execution of test runs. Quality has been one of the main aspects in this project, why design patterns and software methodologies have been used to guarantee a high quality, reusable, modular and optimized design. The “Sonar” technology has helped in the achievement of this goal. Furthermore, a comprehensive proofing system of all the application's components has been implemented. In conclusion, this Project has consisted in developing an innovative, free source application that establishes a clearly defined basis so that, if it someday will be put in production, it will allow people to share thoughts and ideas, and by doing so, help them to improve the World we live in.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el día a día y mantenimiento de una empresa o negocio, pronto surge la necesidad de gestionar y almacenar la información, y según va creciendo la cantidad de información relativa al negocio, es más importante o primordial la adopción de soluciones y/o aplicaciones informáticas que nos faciliten dichas labores. Años atrás, antes de que las aplicaciones informáticas estuvieran al alcance de todo tipo de negocios, no quedaba otra solución que almacenar grandes cantidades de información impresa, lo cual implica un gran esfuerzo y trabajo, disponer del espacio necesario y correr ciertos riesgos ante posibles errores o fallos en su gestión. Actualmente las aplicaciones informáticas están prácticamente al alcance de cualquier pequeña y mediana empresa. Con dichas aplicaciones conseguimos un gran almacenamiento, control y gestión de la información, y además se disminuye el esfuerzo humano, la necesidad de amplios almacenes, y probabilidad de errores en la gestión de dicha información. Pero no todo serán ventajas. Dependiendo del tipo y complejidad de la aplicación, se necesitará un personal más o menos especializado informáticamente, o bien la aplicación de una formación informática específica a aquel personal que la necesitase para poder manejar la aplicación correctamente. Por otro lado habría que invertir en la maquinaria adecuada para poder ejecutar la aplicación sin problemas, lo cual conlleva un coste y un futuro mantenimiento. Y además hay que ser conscientes que a partir del momento en que se informatiza un negocio, la empresa y el funcionamiento de la misma pasan a depender en mayor medida del correcto funcionamiento de una “máquina”, pero para ello existen sistemas y copias de seguridad que mitigan dichos riesgos. Es obvio que existen grandes ventajas y también ciertos riesgos, pero parece claro que una vez que se informatiza un negocio, el almacenamiento y gestión de la información es mucho más sencillo y ágil. Una vez decidida la informatización del negocio, hay que decidir si se acude a algunas de las soluciones informáticas que ya existen implementadas en el mercado, o bien se elige la solución de implementar una aplicación a medida según las necesidades y características del negocio. En función del tipo de negocio y los gustos del empresario, se adoptará por una solución u otra, siendo cualquiera de ellas totalmente válida. En el caso que nos aborda, acometeremos la informatización de un gimnasio que además ofertará como opción un servicio de guardería para los bebés de los clientes, para que de esta manera los clientes puedan realizar sus ejercicios físicos con total tranquilidad y despreocupación respecto a sus bebés. Los objetivos que se persiguen al informatizar el negocio son: -Agilizar, simplificar y potenciar la gestión de la empresa. -Reducir la cantidad de información impresa que se maneja actualmente. -Tener mayor control global del negocio. -Ofrecer mayor transparencia y velocidad de respuesta en la información proporcionada a los clientes. -Facilitar las posibles futuras ampliaciones del negocio. Para cumplir dichos objetivos se implementará una aplicación estructurada en los diferentes módulos que componen nuestro negocio, y a la vez tendrá un aspecto y funcionamiento muy homogéneo para facilitar su utilización y explotación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente documento es la memoria del proyecto BADELEWeb, un software desarrollado con el objetivo de mejorar la gestión y el aprovechamiento de la base de datos de contenidos lingüísticos denominada BADELE. Este software ofrece desde el manejo básico de la base de datos a la explotación más detallada mediante la ejecución de consultas sobre funciones lingüísticas. Además, como parte del proyecto se incluye una interfaz que permite el aprovechamiento, por parte de un usuario, de ese recubrimiento. En este documento se presentan los aspectos teóricos necesarios para el desarrollo del proyecto, y la descripción de la funcionalidad que el software debe tener, así como una descripción técnica del desarrollo realizado. Posteriormente se presentan los resultados obtenidos en el proyecto para terminar con una visión de posibles mejoras que se pueden realizar en un futuro. Como anexo se incluye un manual con instrucciones para la instalación del software por parte de un administrador de sistemas para su utilización posterior.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The use of the Information and Communication Technologies (ICT) in Learning Environment allows achieving the maximum interaction between Teachers and Students.The Virtual Learning Environments are computer programs that benefit the learning facilitating the communication between users. Open Source software allow to create the own online modular learning environment with a fast placed in service. In the present paper the use of a Learning Management Systems (LMS) as continuous education tool is proposed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las listas de espera son un problema para la mayor parte de los países que cuentan con un Sistema Nacional de Salud. El presente trabajo propone analizar el problema de las listas de espera desde una perspectiva de Decisión Multicriterio. Tras un análisis de las diferentes metodologías existentes, hemos elaborado un modelo de decisión basado en el método AHP (Analytic Hierarchy Process) para la gestión de listas de espera y lo hemos aplicado a un Hospital de la Comunidad de Madrid. La decisión multicriterio MCDM (Multiple Criteria Decision Making) es la teoría que estudia y analiza los problemas de decisión que involucran diferentes criterios. La MCDM enmarca con precisión problemas reales de toma de decisiones, planteados usualmente haciendo uso de varios criterios en conflicto; en los cuales, no será posible obtener en general una solución que asigne a todos los criterios su mejor valor sino que el decisor, aplicando distintas técnicas, deberá decidir la mejor solución a escoger del conjunto de soluciones factibles. El fundamento del AHP radica en descomponer problemas complejos en otros más sencillos y agregar las soluciones de los mismos. Según la propuesta de Saaty, el primer paso para la aplicación de este método es estructurar jerárquicamente el problema en niveles con distintos nodos interconectados. El primer nivel de la jerarquía corresponde al propósito del problema, el nivel/niveles intermedios a los criterios/subcriterios en base a los cuales se forma la decisión y el último corresponde a las alternativas o soluciones factibles del problema. La aplicación del método AHP requiere: -Realizar comparaciones por pares entre los entes de cada nivel jerárquico, en base a la importancia que presentan para el nodo del nivel superior de la jerarquía al que están ligados. Los resultados de estas comparaciones se recogen en forma de matrices de comparación por pares. -Obtener los vectores de prioridad correspondientes a cada una de las matrices de comparación por pares. -Calcular la contribución de cada alternativa al propósito del problema, mediante una agregación multiplicativa entre los niveles jerárquicos y en función de estos valores, ordenar las alternativas y seleccionar lo más conveniente como solución del problema. Como último paso en la metodología AHP debemos señalar que, cualquiera que sea el método empleado para sintetizar la información de dichas matrices para determinar los vectores de prioridad de los entes que se comparan, es posible realizar un análisis de sensibilidad del resultado alcanzado, visualizando y analizando otras posibles soluciones a obtener haciendo cambios en los juicios de valor emitidos por la unidad decisora al construir dichas matrices. El software Expert-Choice permite realizar el análisis de sensibilidad de 5 formas diferentes. En estos análisis se realizan variaciones en el valor de un peso o prioridad y se observa numérica y gráficamente como este cambio afecta a la puntuación de las alternativas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En las últimas dos décadas, se ha puesto de relieve la importancia de los procesos de adquisición y difusión del conocimiento dentro de las empresas, y por consiguiente el estudio de estos procesos y la implementación de tecnologías que los faciliten ha sido un tema que ha despertado un creciente interés en la comunidad científica. Con el fin de facilitar y optimizar la adquisición y la difusión del conocimiento, las organizaciones jerárquicas han evolucionado hacia una configuración más plana, con estructuras en red que resulten más ágiles, disminuyendo la dependencia de una autoridad centralizada, y constituyendo organizaciones orientadas a trabajar en equipo. Al mismo tiempo, se ha producido un rápido desarrollo de las herramientas de colaboración Web 2.0, tales como blogs y wikis. Estas herramientas de colaboración se caracterizan por una importante componente social, y pueden alcanzar todo su potencial cuando se despliegan en las estructuras organizacionales planas. La Web 2.0 aparece como un concepto enfrentado al conjunto de tecnologías que existían a finales de los 90s basadas en sitios web, y se basa en la participación de los propios usuarios. Empresas del Fortune 500 –HP, IBM, Xerox, Cisco– las adoptan de inmediato, aunque no hay unanimidad sobre su utilidad real ni sobre cómo medirla. Esto se debe en parte a que no se entienden bien los factores que llevan a los empleados a adoptarlas, lo que ha llevado a fracasos en la implantación debido a la existencia de algunas barreras. Dada esta situación, y ante las ventajas teóricas que tienen estas herramientas de colaboración Web 2.0 para las empresas, los directivos de éstas y la comunidad científica muestran un interés creciente en conocer la respuesta a la pregunta: ¿cuáles son los factores que contribuyen a que los empleados de las empresas adopten estas herramientas Web 2.0 para colaborar? La respuesta a esta pregunta es compleja ya que se trata de herramientas relativamente nuevas en el contexto empresarial mediante las cuales se puede llevar a cabo la gestión del conocimiento en lugar del manejo de la información. El planteamiento que se ha llevado a cabo en este trabajo para dar respuesta a esta pregunta es la aplicación de los modelos de adopción tecnológica, que se basan en las percepciones de los individuos sobre diferentes aspectos relacionados con el uso de la tecnología. Bajo este enfoque, este trabajo tiene como objetivo principal el estudio de los factores que influyen en la adopción de blogs y wikis en empresas, mediante un modelo predictivo, teórico y unificado, de adopción tecnológica, con un planteamiento holístico a partir de la literatura de los modelos de adopción tecnológica y de las particularidades que presentan las herramientas bajo estudio y en el contexto especifico. Este modelo teórico permitirá determinar aquellos factores que predicen la intención de uso de las herramientas y el uso real de las mismas. El trabajo de investigación científica se estructura en cinco partes: introducción al tema de investigación, desarrollo del marco teórico, diseño del trabajo de investigación, análisis empírico, y elaboración de conclusiones. Desde el punto de vista de la estructura de la memoria de la tesis, las cinco partes mencionadas se desarrollan de forma secuencial a lo largo de siete capítulos, correspondiendo la primera parte al capítulo 1, la segunda a los capítulos 2 y 3, la tercera parte a los capítulos 4 y 5, la cuarta parte al capítulo 6, y la quinta y última parte al capítulo 7. El contenido del capítulo 1 se centra en el planteamiento del problema de investigación así como en los objetivos, principal y secundarios, que se pretenden cumplir a lo largo del trabajo. Así mismo, se expondrá el concepto de colaboración y su encaje con las herramientas colaborativas Web 2.0 que se plantean en la investigación y una introducción a los modelos de adopción tecnológica. A continuación se expone la justificación de la investigación, los objetivos de la misma y el plan de trabajo para su elaboración. Una vez introducido el tema de investigación, en el capítulo 2 se lleva a cabo una revisión de la evolución de los principales modelos de adopción tecnológica existentes (IDT, TRA, SCT, TPB, DTPB, C-TAM-TPB, UTAUT, UTAUT2), dando cuenta de sus fundamentos y factores empleados. Sobre la base de los modelos de adopción tecnológica expuestos en el capítulo 2, en el capítulo 3 se estudian los factores que se han expuesto en el capítulo 2 pero adaptados al contexto de las herramientas colaborativas Web 2.0. Con el fin de facilitar la comprensión del modelo final, los factores se agrupan en cuatro tipos: tecnológicos, de control, socio-normativos y otros específicos de las herramientas colaborativas. En el capítulo 4 se lleva a cabo la relación de los factores que son más apropiados para estudiar la adopción de las herramientas colaborativas y se define un modelo que especifica las relaciones entre los diferentes factores. Estas relaciones finalmente se convertirán en hipótesis de trabajo, y que habrá que contrastar mediante el estudio empírico. A lo largo del capítulo 5 se especifican las características del trabajo empírico que se lleva a cabo para contrastar las hipótesis que se habían enunciado en el capítulo 4. La naturaleza de la investigación es de carácter social, de tipo exploratorio, y se basa en un estudio empírico cuantitativo cuyo análisis se llevará a cabo mediante técnicas de análisis multivariante. En este capítulo se describe la construcción de las escalas del instrumento de medida, la metodología de recogida de datos, y posteriormente se presenta un análisis detallado de la población muestral, así como la comprobación de la existencia o no del sesgo atribuible al método de medida, lo que se denomina sesgo de método común (en inglés, Common Method Bias). El contenido del capítulo 6 corresponde al análisis de resultados, aunque previamente se expone la técnica estadística empleada, PLS-SEM, como herramienta de análisis multivariante con capacidad de análisis predictivo, así como la metodología empleada para validar el modelo de medida y el modelo estructural, los requisitos que debe cumplir la muestra, y los umbrales de los parámetros considerados. En la segunda parte del capítulo 6 se lleva a cabo el análisis empírico de los datos correspondientes a las dos muestras, una para blogs y otra para wikis, con el fin de validar las hipótesis de investigación planteadas en el capítulo 4. Finalmente, en el capítulo 7 se revisa el grado de cumplimiento de los objetivos planteados en el capítulo 1 y se presentan las contribuciones teóricas, metodológicas y prácticas derivadas del trabajo realizado. A continuación se exponen las conclusiones generales y detalladas por cada grupo de factores, así como las recomendaciones prácticas que se pueden extraer para orientar la implantación de estas herramientas en situaciones reales. Como parte final del capítulo se incluyen las limitaciones del estudio y se sugiere una serie de posibles líneas de trabajo futuras de interés, junto con los resultados de investigación parciales que se han obtenido durante el tiempo que ha durado la investigación. ABSTRACT In the last two decades, the relevance of knowledge acquisition and dissemination processes has been highlighted and consequently, the study of these processes and the implementation of the technologies that make them possible has generated growing interest in the scientific community. In order to ease and optimize knowledge acquisition and dissemination, hierarchical organizations have evolved to a more horizontal configuration with more agile net structures, decreasing the dependence of a centralized authority, and building team-working oriented organizations. At the same time, Web 2.0 collaboration tools such as blogs and wikis have quickly developed. These collaboration tools are characterized by a strong social component and can reach their full potential when they are deployed in horizontal organization structures. Web 2.0, based on user participation, arises as a concept to challenge the existing technologies of the 90’s which were based on websites. Fortune 500 companies – HP, IBM, Xerox, Cisco- adopted the concept immediately even though there was no unanimity about its real usefulness or how it could be measured. This is partly due to the fact that the factors that make the drivers for employees to adopt these tools are not properly understood, consequently leading to implementation failure due to the existence of certain barriers. Given this situation, and faced with theoretical advantages that these Web 2.0 collaboration tools seem to have for companies, managers and the scientific community are showing an increasing interest in answering the following question: Which factors contribute to the decision of the employees of a company to adopt the Web 2.0 tools for collaborative purposes? The answer is complex since these tools are relatively new in business environments. These tools allow us to move from an information Management approach to Knowledge Management. In order to answer this question, the chosen approach involves the application of technology adoption models, all of them based on the individual’s perception of the different aspects related to technology usage. From this perspective, this thesis’ main objective is to study the factors influencing the adoption of blogs and wikis in a company. This is done by using a unified and theoretical predictive model of technological adoption with a holistic approach that is based on literature of technological adoption models and the particularities that these tools presented under study and in a specific context. This theoretical model will allow us to determine the factors that predict the intended use of these tools and their real usage. The scientific research is structured in five parts: Introduction to the research subject, development of the theoretical framework, research work design, empirical analysis and drawing the final conclusions. This thesis develops the five aforementioned parts sequentially thorough seven chapters; part one (chapter one), part two (chapters two and three), part three (chapters four and five), parte four (chapters six) and finally part five (chapter seven). The first chapter is focused on the research problem statement and the objectives of the thesis, intended to be reached during the project. Likewise, the concept of collaboration and its link with the Web 2.0 collaborative tools is discussed as well as an introduction to the technology adoption models. Finally we explain the planning to carry out the research and get the proposed results. After introducing the research topic, the second chapter carries out a review of the evolution of the main existing technology adoption models (IDT, TRA, SCT, TPB, DTPB, C-TAM-TPB, UTAUT, UTAUT2), highlighting its foundations and factors used. Based on technology adoption models set out in chapter 2, the third chapter deals with the factors which have been discussed previously in chapter 2, but adapted to the context of Web 2.0 collaborative tools under study, blogs and wikis. In order to better understand the final model, the factors are grouped into four types: technological factors, control factors, social-normative factors and other specific factors related to the collaborative tools. The first part of chapter 4 covers the analysis of the factors which are more relevant to study the adoption of collaborative tools, and the second part proceeds with the theoretical model which specifies the relationship between the different factors taken into consideration. These relationships will become specific hypotheses that will be tested by the empirical study. Throughout chapter 5 we cover the characteristics of the empirical study used to test the research hypotheses which were set out in chapter 4. The nature of research is social, exploratory, and it is based on a quantitative empirical study whose analysis is carried out using multivariate analysis techniques. The second part of this chapter includes the description of the scales of the measuring instrument; the methodology for data gathering, the detailed analysis of the sample, and finally the existence of bias attributable to the measurement method, the "Bias Common Method" is checked. The first part of chapter 6 corresponds to the analysis of results. The statistical technique employed (PLS-SEM) is previously explained as a tool of multivariate analysis, capable of carrying out predictive analysis, and as the appropriate methodology used to validate the model in a two-stages analysis, the measurement model and the structural model. Futhermore, it is necessary to check the requirements to be met by the sample and the thresholds of the parameters taken into account. In the second part of chapter 6 an empirical analysis of the data is performed for the two samples, one for blogs and the other for wikis, in order to validate the research hypothesis proposed in chapter 4. Finally, in chapter 7 the fulfillment level of the objectives raised in chapter 1 is reviewed and the theoretical, methodological and practical conclusions derived from the results of the study are presented. Next, we cover the general conclusions, detailing for each group of factors including practical recommendations that can be drawn to guide implementation of these tools in real situations in companies. As a final part of the chapter the limitations of the study are included and a number of potential future researches suggested, along with research partial results which have been obtained thorough the research.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Sistema Integrado de Gestión Académica consiste en una plataforma software modular orientada a apoyar la labor del profesorado en la gestión docente de las asignaturas impartidas por el Departamento de Mecánica de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid. Durante los últimos 5 años se ha trabajado en la creación de esta plataforma que se encuentra ahora en su recta final. Es necesario aclarar que toda la plataforma desde su inicio ha sido creada por el mismo autor y que debido al tiempo disponible para la realización del TFG, éste se ha centrado en realizar mejoras sobre lo ya desarrollado y en implementar uno de los módulos. El trabajo desarrollado comienza con un estudio de plataformas educativas online. Se han valorado las alternativas de Moodle y ATutor como posibles soluciones a los requisitos planteados llegando a la conclusión de que era necesario realizar un desarrollo a medida. La plataforma consta de 3 módulos principales:  Plataforma de Gestión Docente en Internet (PGDNet)  Aplicación de Notas (AdN)  Plataforma de Entrega de Prácticas Académicas (PEPA) PGDNet está orientado a la realización de pruebas de evaluación online. El profesor tiene a su alcance un conjunto de opciones que le permiten la creación de actividades y ejercicios de diferente índole, gestionar alumnos y establecer periodos de evaluación. El sistema recoge los resultados y corrige automáticamente permitiendo además exportar los resultados, manteniendo de esta manera la compatibilidad con otros sistemas informáticos de la UPM. PGDNet ofrece además un servicio de correo electrónico para realizar comunicaciones con grupos predefinidos de alumnos, un gestor documental enlazado con las diferentes actividades y un gestor de encuestas programable a medida. AdN se integra en la plataforma como un sistema para la gestión de calificaciones y permite mantener un historial del alumno. Las materias pueden dividirse en diferentes evaluaciones con un determinado peso sobre la calificación final. La nota total se calcula en tiempo real y de forma automática. El alumno puede entrar a consultar sus calificaciones en cualquier momento. El módulo ofrece a los profesores acceso simultáneo a introducir las calificaciones e importar notas guardadas de convocatorias pasadas. PEPA es el nuevo módulo que se añade a la plataforma y el que concentra los esfuerzos de desarrollo de este TFG. Se trata de un sistema de entrega de prácticas online que permite al profesor centralizar la recogida de documentación para su posterior corrección. PEPA dispone de un sistema de plantillas de respuestas fijas utilizadas en los laboratorios que son corregidas de forma automática en la entrega. Los 3 módulos se complementan entre sí compartiendo datos y permitiendo realizar importaciones y exportaciones de información con las aplicaciones actuales de Secretaría de alumnos como puede ser la introducción de listas de alumnos.---ABSTRACT---Academic Management Framework (Sistema Integrado de Gestión Académica) is a module‐oriented software application that aims to help teachers from ETSIDI Department from UPM to manage all information related to graduate courses. The software, which has been in continuous developing during the last 5 years, is now about to be finished. It must be pointed out the fact that the entire application has been designed and implemented by the same author. However, due to time schedule restrictions in this TFG (spanish acronym for “Graduation Project”), it has been focused on developing a few improvements in the software already implemented and creating a specific new module. In the beginning, this TFG includes an educational software comparative study. Moodle and ATutor have been selected as plausible assembled solutions that would fit the requirements given. Nonetheless, the conclusion ends up with rejecting both possibilities and moving the project towards a custom‐developed software. The application is divided in 3 modules:  Network Based Academic Management Platform (Plataforma de Gestión Docente en Internet ‐ PGDNet)  Evaluation Aid Tool (Aplicación de Notas ‐ AdN)  Academic Lab‐Work Delivery Platform (Plataforma de Entrega de Prácticas Académicas ‐ PEPA) PGDNet main purpose is handling online tests for students. There are a bunch of tools available for teachers that allow them to create activities and different types of exercises, manage students and set examination schedules. The system gathers the results and marks exercises automatically. Moreover, the teacher is able to export this information which is compatible with other UPM systems. PGDNet offers a mail service, a document management system and a survey application among others. AdN adds new features to the system. It helps teachers to manage student marks by keeping a history over the years. Subjects can be divided into little parts with a different weight in the final mark. Eventually, the mark is automatically calculated and published. The application can be accessed by both students and teachers simultaneously. This module is also ready to import old marks into the current course and allow all teachers to fill in the results at the same time. PEPA, which is a new module added from scratch, concentrate this TFG efforts. It consists of a practice delivery system that gathers all student documentation in a single site for easy correction. Besides, PEPA deploys an answer template repository for laboratory training. Students fill the templates and PEPA corrects them automatically on sending. These 3 modules are integrated in a single system that allows them to share data and import information such as student lists from the Administration Department.