14 resultados para service users

em Universidad Politécnica de Madrid


Relevância:

60.00% 60.00%

Publicador:

Resumo:

El sistema portuario español movió en el año 2013 aproximadamente 458,54 millones de toneladas, 13,8 millones de TEUs, con un total de 131.128 buques que accedieron a puerto para el conjunto de las 28 Autoridades Portuarias. Con el 62% de las exportaciones y el 86% de las importaciones realizadas por vía marítima, una rentabilidad del 2,34 %, muy cerca del objetivo del 2,5 % de rentabilidad media annual establecida legalmente, y una cifra de negocios aproximada de 1.028 millones de euros equivalentes al 1,1 % del PIB que genera un empleo directo e indirecto vinculado de 145.000 personas, concluimos que estamos hablando de un sector estratégico para la economía del país. Desde hace décadas, en muchos puertos del mundo se han venido desarrollando terminales “hub” o de concentración y distribución de cargas. Las navieras concentran entre este tipo de terminales sus líneas transoceánicas con buques de enormes dimensiones y capacidad de carga para producir los tránsitos de contenedores desde estas líneas a otras líneas llamadas “feeder”, con buques de menor tamaño que enlazan el “hub” con los puertos de su área marítima de influencia. La excepcional ubicación geoestratégica de España, con aproximadamente ocho mil kilómetros de costa, ha originado que los puertos españoles de mayor dimensión aspiren a incorporarse a esta red marítima internacional de contenedores y determina que en nuestro sistema portuario los movimientos de contenedores de tránsito tengan gran importancia. Sin embargo, la crisis económica ha tenido un efecto decisivo en el sector marítimo, determinando una lucha feroz entre todos los puertos, nacionales e internacionales, por captar este tipo de tráficos, lo que origina una búsqueda de las compañías navieras de puertos cada vez más eficientes en términos calidad/coste del servicio. La entrada en vigor del Texto Refundido de la Ley de Puertos y la piedra angular de su reforma, la Ley 33/2010, plantea como objetivo principal la mejora de la competitividad del sistema portuario español y liderar su recuperación, ofreciendo unas condiciones de entorno favorables a los puertos españoles que acaben por incentivar la captación de tráficos e inversión privada a través de una oferta de servicios e infraestructura de calidad y a precios competitivos que consoliden su posición dentro del tráfico marítimo mundial. Surge, por tanto, la conveniencia de investigar la influencia de las medidas propuestas por dicha norma legal y las soluciones ofrecidas a las demandas de un sector considerado estratégico para la economía del país, y cuya resolución se considera imprescindible para consolidar su recuperación. Por eso, se han analizado los aspectos más importantes de la reforma mediante la realización de un resumen ejecutivo y se ha estudiado la influencia de las medidas que incorpora desde el punto de vista de tres factores, que previamente se han considerado como fundamentales para la recuperación del sistema portuario español, y que históricamente habían sido demandados por el mismo, como son, en primer lugar, un progresivo sistema de flexibilización tributaria que permitiera a los puertos españoles ganar en términos de competitividad respecto a otros modelos portuarios mucho más flexibles en materia tarifaria, en segundo lugar, una necesaria liberalización del régimen de prestación de los servicios portuarios que posibilite el libre acceso a cualquier interesado en su prestación y, en último lugar, el progresivo abaratamiento de los costes inherentes a dichos servicios, fundamentalmente la manipulación de mercancías. Con posterioridad se ha investigado el trámite parlamentario al que se ha sometido la ley, fruto del enorme consenso alcanzado entre las dos principales fuerzas políticas del país, que determinó que se presentaran más de 700 enmiendas al proyecto original, y en algunos casos, se ha prestado especial atención a determinadas enmiendas que se consideran, en opinión de este investigador, novedosas y aventuradas, razón por la cual quizás no fueron incorporadas definitivamente al texto legal. Y se han analizado las principales demandas y aportaciones extraídas de la Sesión Informativa sobre la tramitación del entonces proyecto de ley ofrecida por la Comisión de Fomento del Congreso de los Diputados a los principales representantes del sector, comunidad portuaria, universidad y sindicatos. Siendo conscientes de la incidencia que tiene el servicio portuario de manipulación de mercancías en el paso de la mercancía por el puerto, se ha hecho una referencia concreta al peculiar régimen jurídico y laboral del personal vinculado al servicio. Avanzamos que las características de la relación laboral especial, y su peculiar régimen jurídico, con una dualidad de relaciones laborales, tiene una influencia decisiva en la nómina del trabajador que se repercute en los usuarios del servicio, fundamentalmente el naviero y el operador de la terminal, que en definitiva, incide en la competitividad del puerto. Y se ha constatado el auge aperturista de numerosas legislaciones portuarias europeas, prestando especial atención al proyecto frustrado de liberalización de los servicios portuarios en la Unión Europea de la conocida como Directiva Loyola de Palacio del año 2003 y al Libro Blanco de Transportes del año 2011. Así como a las deficiencias advertidas por el Dictamen de la Comisión Europea de fecha 27/09/2012 en relación al régimen jurídico del servicio portuario de manipulación de mercancías, que lo considera disconforme y contrario con las normas de libertad de establecimiento en Europa y que amenaza con una previsible reforma unilateral de la legislación portuaria española, a instancias europeas. Bajo este planteamiento, se ha procedido a analizar el marco de prestación de dichos servicios desde el punto de vista de la propia comunidad portuaria. Inicialmente, a través de un estudio de fuerzas de la competitividad del sector de los servicios portuarios en el sistema portuario español que nos permitirá trazar un mapa estratégico del mismo a través del “Modelo de las Cinco Fuerzas de Porter” concluyendo, que el poder de los prestadores de servicios portuarios como proveedores de los mismos, fundamentalmente en la manipulación de mercancías, es máximo, con un único colectivo, los estibadores portuarios, que al amparo de la normativa legal vigente tienen la exclusividad de su prestación. Dichas circunstancias restan competitividad al sistema frente a alternativas portuarias más flexibles y desincentivan la inversión privada. Y, en segundo lugar, mediante un proceso participativo en distintas encuestas sobre el modelo legislativo y sobre el marco formativo del sector con los propios agentes afectados dentro de la comunidad portuaria, desde la triple perspectiva de la vertiente pública que representan las Autoridades Portuarias, como gestores de las infraestructuras, la vertiente privada que representan los usuarios y prestadores de servicios, como principal cliente del puerto y desde el punto de vista de la propia mano de obra portuaria materializada en la representación sindical de dichos trabajadores. Los resultados nos permitirán concluir, respectivamente, la incidencia del servicio portuario mercancía por el puerto, por representar más de la mitad de los costes. Así como la aspiración de los trabajadores adscritos a dicho servicio de consolidar un título formativo que unifique y potencie su capacitación profesional, circunstancia esta última, también demandada por toda comunidad portuaria. Analizadas las conclusiones extraídas en cada una de las líneas de investigación se han detectado una serie de ineficiencias dentro del mismo que dicho marco regulador no ha sabido resolver, por lo que se ha considerado la conveniencia de formular, como herramienta de ayuda a gestores del sistema portuario español, una relación de medidas que, en opinión de este investigador, se consideran necesarias para mejorar el régimen de prestación de los servicios portuarios y se ha propuesto un borrador de modificación del actual Texto Refundido que pueda servir de base para materializar una futura reforma legal. Las conclusiones obtenidas en la investigación deben sentar las bases de una profunda reflexión sobre la necesidad de encaminar, como alternativa a una previsible modificación a instancias europeas, una reforma legal que decididamente apueste por la competitividad del sistema portuario español desde el punto de vista de la liberalización de servicios, el abaratamiento de los costes de la estiba y la necesaria profesionalización de los trabajadores adscritos al servicio portuario de manipulación de mercancías. During 2013 the Spanish Port System moved nearly 458,54 million tons of freight, 13,8 million TEUs, involving a total of 131.128 ships for the 28 existing Port Authorities. With 62% of exports and 86% of imports made through sea transportation, a 2,34% profit, close to the 2,5% average annual profit goal legally established, revenues of 1.028 million € equivalent to a 1.1% of Spain’s GDP and a figure of 145.000 people a directly or indirectly employed we can conclude that maritime industry is undoubtedly one of the strategic and key sectors for the country’s economy. Since several decades many ports in the world have been increasingly developing “Hub” terminals, those which concentrate and distribute freight. Shipping companies place among these type of terminals their transoceanic sea liners along with huge dimension & capacity ships to make the container transit from these liners to other called “feeder” which are smaller freight ships that connect the “hub” with the ports within its maritime area of influence. Spain’s exceptional geostrategic location with over 8.000 km of coastline has originated that those big dimension Spanish ports aspire to become a part of a container international maritime network which also determines that transit container move is key within our port system. Nevertheless the economic crisis has had a decisive impact on the maritime sector originating a fierce battle between all ports, national and international ones, all of them fight against each other to catch this type of maritime traffic which triggers an ongoing shipping companies search in cost/service quality efficient ports. The cornerstone of the Restated Text of Port Law is Law 33/2010, which lays out as main goal the Spanish Port System competitiveness improvement and lead its recovery offering favorable environment conditions to Spanish ports which help encourage maritime traffic attraction and private investment through a wide offer of services, quality of infrastructure and competitive prices which can consolidate its positioning within the world’s maritime traffic. It is therefore key to investigate the influence of the measures proposed by the above mentioned law and also the solutions offered to the demands of a sector which is considered strategic for the country’s economy and which solution is essential to consolidate the recovery. It is because of this that the most important aspects of the reform have been analyzed through the making of an executive summary and it has also been studied the influence of the measures it includes from the point of view of three factors which have previously been considered as key for the Spanish port system recovery. The system has historically demanded a progressive tax flexibility, which would permit Spanish ports be more competitive compared to other port models much more flexible in rates, a necessary liberalization of the port service provision regime and last but not least, to cut the price of costs related to those services, mainly freight handling. Following this, the parliamentary process of the law has also been studied as a consequence of the vast consensus reached by the main political forces in the country which clearly determined that more than 700 amendments to the original project were presented. In some cases the focus has been on amendments which are adventurous and new, reason why they were finally not included to the final legal text. Being well aware of the importance that freight handling procedure has, I have made a specific reference to the legal and working framework of those employees related to this service. We conclude that the special working relationship, its different legal regime, along with the working relationship dualism has a big impact and decisive influence over the worker’s salary which also affects service users, mainly shipowners and terminal operators, having a bad effect on the port’s competitiveness. The above confirms the new opening trend of main European port laws with special attention to the frustrated European Union port services liberalization project, also known as Directive Loyola de Palacio (2003) and the White Paper on Transports (2011). It is important to highlight that the European Commission has also observed several deficiencies with regard to the freight handling port service Law Regime being in disagreement with it, considering it is against the free establishment rules in Europe. The Commission is likely to present a unilateral reform to the Spanish Port Law. Under this approach the service provision framework is being analyzed from the Port Community point of view. Initially the analysis will focus on the study of the competition forces within the port services industry in Spain, this will allow us to draw up an strategic map through “Porter’s Five Forces Model” concluding that the power of port services providers as freight handlers is maximum, with an only collective, stevedores, which has the exclusivity for their services. All these circumstances not only decrease the system’s competitiveness versus other more flexible but also restrain private investments. Secondly, through a participating procedure in different surveys about the legislative model and about the training framework with the affected agents within the port community, there is a triple perspective: Public point of view represented by Port Authorities as infrastructure managers, Private point of view represented by users and service suppliers as main Port’s customer and finally, port workforce, represented by union leaders. Results will let us conclude that freight handling service is the most critical port service and represents more than half of the costs. This service related workers aspire to obtain a training certificate that unifies and boosts their professional role which is also chased by the entire port community. Once conclusions have been analyzed for all research lines, several deficiencies have been found and the regulatory framework hasn’t yet been able to solve them, it has therefore been a series of necessary measures that help improve the port services provision regime. A new proposal to the Restated Law Text has been drafted as the first step to embrace a future legal reform. Conclusions obtained on the research should set the new basis of a deep reflection about the need to bent on a new legal reform which firmly bets on Spanish port system competitiveness from three key points of view, service liberalization, ship load cost reduction and professionalization of freight handling related workers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Next Generation Networks (NGN) provide Telecommunications operators with the possibility to share their resources and infrastructure, facilitate the interoperability with other networks, and simplify and unify the management, operation and maintenance of service offerings, thus enabling the fast and cost-effective creation of new personal, broadband ubiquitous services. Unfortunately, service creation over NGN is far from the success of service creation in the Web, especially when it comes to Web 2.0. This paper presents a novel approach to service creation and delivery, with a platform that opens to non-technically skilled users the possibility to create, manage and share their own convergent (NGN-based and Web-based) services. To this end, the business approach to user-generated services is analyzed and the technological bases supporting the proposal are explained.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This PhD thesis contributes to the problem of resource and service discovery in the context of the composable web. In the current web, mashup technologies allow developers reusing services and contents to build new web applications. However, developers face a problem of information flood when searching for appropriate services or resources for their combination. To contribute to overcoming this problem, a framework is defined for the discovery of services and resources. In this framework, three levels are defined for performing discovery at content, discovery and agente levels. The content level involves the information available in web resources. The web follows the Representational Stateless Transfer (REST) architectural style, in which resources are returned as representations from servers to clients. These representations usually employ the HyperText Markup Language (HTML), which, along with Content Style Sheets (CSS), describes the markup employed to render representations in a web browser. Although the use of SemanticWeb standards such as Resource Description Framework (RDF) make this architecture suitable for automatic processes to use the information present in web resources, these standards are too often not employed, so automation must rely on processing HTML. This process, often referred as Screen Scraping in the literature, is the content discovery according to the proposed framework. At this level, discovery rules indicate how the different pieces of data in resources’ representations are mapped onto semantic entities. By processing discovery rules on web resources, semantically described contents can be obtained out of them. The service level involves the operations that can be performed on the web. The current web allows users to perform different tasks such as search, blogging, e-commerce, or social networking. To describe the possible services in RESTful architectures, a high-level feature-oriented service methodology is proposed at this level. This lightweight description framework allows defining service discovery rules to identify operations in interactions with REST resources. The discovery is thus performed by applying discovery rules to contents discovered in REST interactions, in a novel process called service probing. Also, service discovery can be performed by modelling services as contents, i.e., by retrieving Application Programming Interface (API) documentation and API listings in service registries such as ProgrammableWeb. For this, a unified model for composable components in Mashup-Driven Development (MDD) has been defined after the analysis of service repositories from the web. The agent level involves the orchestration of the discovery of services and contents. At this level, agent rules allow to specify behaviours for crawling and executing services, which results in the fulfilment of a high-level goal. Agent rules are plans that allow introspecting the discovered data and services from the web and the knowledge present in service and content discovery rules to anticipate the contents and services to be found on specific resources from the web. By the definition of plans, an agent can be configured to target specific resources. The discovery framework has been evaluated on different scenarios, each one covering different levels of the framework. Contenidos a la Carta project deals with the mashing-up of news from electronic newspapers, and the framework was used for the discovery and extraction of pieces of news from the web. Similarly, in Resulta and VulneraNET projects the discovery of ideas and security knowledge in the web is covered, respectively. The service level is covered in the OMELETTE project, where mashup components such as services and widgets are discovered from component repositories from the web. The agent level is applied to the crawling of services and news in these scenarios, highlighting how the semantic description of rules and extracted data can provide complex behaviours and orchestrations of tasks in the web. The main contributions of the thesis are the unified framework for discovery, which allows configuring agents to perform automated tasks. Also, a scraping ontology has been defined for the construction of mappings for scraping web resources. A novel first-order logic rule induction algorithm is defined for the automated construction and maintenance of these mappings out of the visual information in web resources. Additionally, a common unified model for the discovery of services is defined, which allows sharing service descriptions. Future work comprises the further extension of service probing, resource ranking, the extension of the Scraping Ontology, extensions of the agent model, and contructing a base of discovery rules. Resumen La presente tesis doctoral contribuye al problema de descubrimiento de servicios y recursos en el contexto de la web combinable. En la web actual, las tecnologías de combinación de aplicaciones permiten a los desarrolladores reutilizar servicios y contenidos para construir nuevas aplicaciones web. Pese a todo, los desarrolladores afrontan un problema de saturación de información a la hora de buscar servicios o recursos apropiados para su combinación. Para contribuir a la solución de este problema, se propone un marco de trabajo para el descubrimiento de servicios y recursos. En este marco, se definen tres capas sobre las que se realiza descubrimiento a nivel de contenido, servicio y agente. El nivel de contenido involucra a la información disponible en recursos web. La web sigue el estilo arquitectónico Representational Stateless Transfer (REST), en el que los recursos son devueltos como representaciones por parte de los servidores a los clientes. Estas representaciones normalmente emplean el lenguaje de marcado HyperText Markup Language (HTML), que, unido al estándar Content Style Sheets (CSS), describe el marcado empleado para mostrar representaciones en un navegador web. Aunque el uso de estándares de la web semántica como Resource Description Framework (RDF) hace apta esta arquitectura para su uso por procesos automatizados, estos estándares no son empleados en muchas ocasiones, por lo que cualquier automatización debe basarse en el procesado del marcado HTML. Este proceso, normalmente conocido como Screen Scraping en la literatura, es el descubrimiento de contenidos en el marco de trabajo propuesto. En este nivel, un conjunto de reglas de descubrimiento indican cómo los diferentes datos en las representaciones de recursos se corresponden con entidades semánticas. Al procesar estas reglas sobre recursos web, pueden obtenerse contenidos descritos semánticamente. El nivel de servicio involucra las operaciones que pueden ser llevadas a cabo en la web. Actualmente, los usuarios de la web pueden realizar diversas tareas como búsqueda, blogging, comercio electrónico o redes sociales. Para describir los posibles servicios en arquitecturas REST, se propone en este nivel una metodología de alto nivel para descubrimiento de servicios orientada a funcionalidades. Este marco de descubrimiento ligero permite definir reglas de descubrimiento de servicios para identificar operaciones en interacciones con recursos REST. Este descubrimiento es por tanto llevado a cabo al aplicar las reglas de descubrimiento sobre contenidos descubiertos en interacciones REST, en un nuevo procedimiento llamado sondeo de servicios. Además, el descubrimiento de servicios puede ser llevado a cabo mediante el modelado de servicios como contenidos. Es decir, mediante la recuperación de documentación de Application Programming Interfaces (APIs) y listas de APIs en registros de servicios como ProgrammableWeb. Para ello, se ha definido un modelo unificado de componentes combinables para Mashup-Driven Development (MDD) tras el análisis de repositorios de servicios de la web. El nivel de agente involucra la orquestación del descubrimiento de servicios y contenidos. En este nivel, las reglas de nivel de agente permiten especificar comportamientos para el rastreo y ejecución de servicios, lo que permite la consecución de metas de mayor nivel. Las reglas de los agentes son planes que permiten la introspección sobre los datos y servicios descubiertos, así como sobre el conocimiento presente en las reglas de descubrimiento de servicios y contenidos para anticipar contenidos y servicios por encontrar en recursos específicos de la web. Mediante la definición de planes, un agente puede ser configurado para descubrir recursos específicos. El marco de descubrimiento ha sido evaluado sobre diferentes escenarios, cada uno cubriendo distintos niveles del marco. El proyecto Contenidos a la Carta trata de la combinación de noticias de periódicos digitales, y en él el framework se ha empleado para el descubrimiento y extracción de noticias de la web. De manera análoga, en los proyectos Resulta y VulneraNET se ha llevado a cabo un descubrimiento de ideas y de conocimientos de seguridad, respectivamente. El nivel de servicio se cubre en el proyecto OMELETTE, en el que componentes combinables como servicios y widgets se descubren en repositorios de componentes de la web. El nivel de agente se aplica al rastreo de servicios y noticias en estos escenarios, mostrando cómo la descripción semántica de reglas y datos extraídos permiten proporcionar comportamientos complejos y orquestaciones de tareas en la web. Las principales contribuciones de la tesis son el marco de trabajo unificado para descubrimiento, que permite configurar agentes para realizar tareas automatizadas. Además, una ontología de extracción ha sido definida para la construcción de correspondencias y extraer información de recursos web. Asimismo, un algoritmo para la inducción de reglas de lógica de primer orden se ha definido para la construcción y el mantenimiento de estas correspondencias a partir de la información visual de recursos web. Adicionalmente, se ha definido un modelo común y unificado para el descubrimiento de servicios que permite la compartición de descripciones de servicios. Como trabajos futuros se considera la extensión del sondeo de servicios, clasificación de recursos, extensión de la ontología de extracción y la construcción de una base de reglas de descubrimiento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

IP Multimedia Subsystem (IMS) is considered to provide multimedia services to users through an IP-based control plane. The current IMS service invocation mechanism, however, requires the Serving-Call Session Control Function (S-CSCF) invokes each Application Server (AS) sequentially to perform service subscription pro?le, which results in the heavy load of the S-CSCF and the long session set-up delay. To solve this issue, this paper proposes a linear chained service invocation mechanism to invoke each AS consecutively. By checking all the initial Filter Criteria (iFC) one-time and adding the addresses of all involved ASs to the ?Route? header, this new approach enables multiple services to be invoked as a linear chain during a session. We model the service invocation mechanisms through Jackson networks, which are validated through simulations. The analytic results verify that the linear chained service invocation mechanism can effectively reduce session set-up delay of the service layer and decrease the load level of the S-CSCF

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo de Tesis se desarrolla en el marco de los escenarios de ejecución distribuida de servicios móviles y contribuye a la definición y desarrollo del concepto de usuario prosumer. El usuario prosumer se caracteriza por utilizar su teléfono móvil para crear, proveer y ejecutar servicios. Este nuevo modelo de usuario contribuye al avance de la sociedad de la información, ya que el usuario prosumer se transforma de creador de contenidos a creador de servicios (estos últimos formados por contenidos y la lógica para acceder a ellos, procesarlos y representarlos). El objetivo general de este trabajo de Tesis es la provisión de un modelo de creación, distribución y ejecución de servicios para entorno móvil que permita a los usuarios no programadores (usuarios prosumer), pero expertos en un determinado dominio, crear y ejecutar sus propias aplicaciones y servicios. Para ello se definen, desarrollan e implementan metodologías, procesos, algoritmos y mecanismos adaptables a dominios específicos, para construir entornos de ejecución distribuida de servicios móviles para usuarios prosumer. La provisión de herramientas de creación adaptadas a usuarios no expertos es una tendencia actual que está siendo desarrollada en distintos trabajos de investigación. Sin embargo, no se ha propuesto una metodología de desarrollo de servicios que involucre al usuario prosumer en el proceso de diseño, desarrollo, implementación y validación de servicios. Este trabajo de Tesis realiza un estudio de las metodologías y tecnologías más innovadoras relacionadas con la co‐creación y utiliza este análisis para definir y validar una metodología que habilita al usuario para ser el responsable de la creación de servicios finales. Siendo los entornos móviles prosumer (mobile prosumer environments) una particularización de los entornos de ejecución distribuida de servicios móviles, en este trabajo se tesis se investiga en técnicas de adaptación, distribución, coordinación de servicios y acceso a recursos identificando como requisitos las problemáticas de este tipo de entornos y las características de los usuarios que participan en los mismos. Se contribuye a la adaptación de servicios definiendo un modelo de variabilidad que soporte la interdependencia entre las decisiones de personalización de los usuarios, incorporando mecanismos de guiado y detección de errores. La distribución de servicios se implementa utilizando técnicas de descomposición en árbol SPQR, cuantificando el impacto de separar cualquier servicio en distintos dominios. Considerando el plano de comunicaciones para la coordinación en la ejecución de servicios distribuidos hemos identificado varias problemáticas, como las pérdidas de enlace, conexiones, desconexiones y descubrimiento de participantes, que resolvemos utilizando técnicas de diseminación basadas en publicación subscripción y algoritmos Gossip. Para lograr una ejecución flexible de servicios distribuidos en entorno móvil, soportamos la adaptación a cambios en la disponibilidad de los recursos, proporcionando una infraestructura de comunicaciones para el acceso uniforme y eficiente a recursos. Se han realizado validaciones experimentales para evaluar la viabilidad de las soluciones propuestas, definiendo escenarios de aplicación relevantes (el nuevo universo inteligente, prosumerización de servicios en entornos hospitalarios y emergencias en la web de la cosas). Abstract This Thesis work is developed in the framework of distributed execution of mobile services and contributes to the definition and development of the concept of prosumer user. The prosumer user is characterized by using his mobile phone to create, provide and execute services. This new user model contributes to the advancement of the information society, as the prosumer is transformed from producer of content, to producer of services (consisting of content and logic to access them, process them and represent them). The overall goal of this Thesis work is to provide a model for creation, distribution and execution of services for the mobile environment that enables non‐programmers (prosumer users), but experts in a given domain, to create and execute their own applications and services. For this purpose I define, develop and implement methodologies, processes, algorithms and mechanisms, adapted to specific domains, to build distributed environments for the execution of mobile services for prosumer users. The provision of creation tools adapted to non‐expert users is a current trend that is being developed in different research works. However, it has not been proposed a service development methodology involving the prosumer user in the process of design, development, implementation and validation of services. This thesis work studies innovative methodologies and technologies related to the co‐creation and relies on this analysis to define and validate a methodological approach that enables the user to be responsible for creating final services. Being mobile prosumer environments a specific case of environments for distributed execution of mobile services, this Thesis work researches in service adaptation, distribution, coordination and resource access techniques, and identifies as requirements the challenges of such environments and characteristics of the participating users. I contribute to service adaptation by defining a variability model that supports the dependency of user personalization decisions, incorporating guiding and error detection mechanisms. Service distribution is implemented by using decomposition techniques based on SPQR trees, quantifying the impact of separating any service in different domains. Considering the communication level for the coordination of distributed service executions I have identified several problems, such as link losses, connections, disconnections and discovery of participants, which I solve using dissemination techniques based on publish‐subscribe communication models and Gossip algorithms. To achieve a flexible distributed service execution in mobile environments, I support adaptation to changes in the availability of resources, while providing a communication infrastructure for the uniform and efficient access to resources. Experimental validations have been conducted to assess the feasibility of the proposed solutions, defining relevant application scenarios (the new intelligent universe, service prosumerization in hospitals and emergency situations in the web of things).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Telecommunications networks have been always expanding and thanks to it, new services have appeared. The old mechanisms for carrying packets have become obsolete due to the new service requirements, which have begun working in real time. Real time traffic requires strict service guarantees. When this traffic is sent through the network, enough resources must be given in order to avoid delays and information losses. When browsing through the Internet and requesting web pages, data must be sent from a server to the user. If during the transmission there is any packet drop, the packet is sent again. For the end user, it does not matter if the webpage loads in one or two seconds more. But if the user is maintaining a conversation with a VoIP program, such as Skype, one or two seconds of delay in the conversation may be catastrophic, and none of them can understand the other. In order to provide support for this new services, the networks have to evolve. For this purpose MPLS and QoS were developed. MPLS is a packet carrying mechanism used in high performance telecommunication networks which directs and carries data using pre-established paths. Now, packets are forwarded on the basis of labels, making this process faster than routing the packets with the IP addresses. MPLS also supports Traffic Engineering (TE). This refers to the process of selecting the best paths for data traffic in order to balance the traffic load between the different links. In a network with multiple paths, routing algorithms calculate the shortest one, and most of the times all traffic is directed through it, causing overload and packet drops, without distributing the packets in the other paths that the network offers and do not have any traffic. But this is not enough in order to provide the real time traffic the guarantees it needs. In fact, those mechanisms improve the network, but they do not make changes in how the traffic is treated. That is why Quality of Service (QoS) was developed. Quality of service is the ability to provide different priority to different applications, users, or data flows, or to guarantee a certain level of performance to a data flow. Traffic is distributed into different classes and each of them is treated differently, according to its Service Level Agreement (SLA). Traffic with the highest priority will have the preference over lower classes, but this does not mean it will monopolize all the resources. In order to achieve this goal, a set policies are defined to control and alter how the traffic flows. Possibilities are endless, and it depends in how the network must be structured. By using those mechanisms it is possible to provide the necessary guarantees to the real-time traffic, distributing it between categories inside the network and offering the best service for both real time data and non real time data. Las Redes de Telecomunicaciones siempre han estado en expansión y han propiciado la aparición de nuevos servicios. Los viejos mecanismos para transportar paquetes se han quedado obsoletos debido a las exigencias de los nuevos servicios, que han comenzado a operar en tiempo real. El tráfico en tiempo real requiere de unas estrictas garantías de servicio. Cuando este tráfico se envía a través de la red, necesita disponer de suficientes recursos para evitar retrasos y pérdidas de información. Cuando se navega por la red y se solicitan páginas web, los datos viajan desde un servidor hasta el usuario. Si durante la transmisión se pierde algún paquete, éste se vuelve a mandar de nuevo. Para el usuario final, no importa si la página tarda uno o dos segundos más en cargar. Ahora bien, si el usuario está manteniendo una conversación usando algún programa de VoIP (como por ejemplo Skype) uno o dos segundos de retardo en la conversación podrían ser catastróficos, y ninguno de los interlocutores sería capaz de entender al otro. Para poder dar soporte a estos nuevos servicios, las redes deben evolucionar. Para este propósito se han concebido MPLS y QoS MPLS es un mecanismo de transporte de paquetes que se usa en redes de telecomunicaciones de alto rendimiento que dirige y transporta los datos de acuerdo a caminos preestablecidos. Ahora los paquetes se encaminan en función de unas etiquetas, lo cual hace que sea mucho más rápido que encaminar los paquetes usando las direcciones IP. MPLS también soporta Ingeniería de Tráfico (TE). Consiste en seleccionar los mejores caminos para el tráfico de datos con el objetivo de balancear la carga entre los diferentes enlaces. En una red con múltiples caminos, los algoritmos de enrutamiento actuales calculan el camino más corto, y muchas veces el tráfico se dirige sólo por éste, saturando el canal, mientras que otras rutas se quedan completamente desocupadas. Ahora bien, esto no es suficiente para ofrecer al tráfico en tiempo real las garantías que necesita. De hecho, estos mecanismos mejoran la red, pero no realizan cambios a la hora de tratar el tráfico. Por esto es por lo que se ha desarrollado el concepto de Calidad de Servicio (QoS). La calidad de servicio es la capacidad para ofrecer diferentes prioridades a las diferentes aplicaciones, usuarios o flujos de datos, y para garantizar un cierto nivel de rendimiento en un flujo de datos. El tráfico se distribuye en diferentes clases y cada una de ellas se trata de forma diferente, de acuerdo a las especificaciones que se indiquen en su Contrato de Tráfico (SLA). EL tráfico con mayor prioridad tendrá preferencia sobre el resto, pero esto no significa que acapare la totalidad de los recursos. Para poder alcanzar estos objetivos se definen una serie de políticas para controlar y alterar el comportamiento del tráfico. Las posibilidades son inmensas dependiendo de cómo se quiera estructurar la red. Usando estos mecanismos se pueden proporcionar las garantías necesarias al tráfico en tiempo real, distribuyéndolo en categorías dentro de la red y ofreciendo el mejor servicio posible tanto a los datos en tiempo real como a los que no lo son.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Since the beginning of Internet, Internet Service Providers (ISP) have seen the need of giving to users? traffic different treatments defined by agree- ments between ISP and customers. This procedure, known as Quality of Service Management, has not much changed in the last years (DiffServ and Deep Pack-et Inspection have been the most chosen mechanisms). However, the incremen-tal growth of Internet users and services jointly with the application of recent Ma- chine Learning techniques, open up the possibility of going one step for-ward in the smart management of network traffic. In this paper, we first make a survey of current tools and techniques for QoS Management. Then we intro-duce clustering and classifying Machine Learning techniques for traffic charac-terization and the concept of Quality of Experience. Finally, with all these com-ponents, we present a brand new framework that will manage in a smart way Quality of Service in a telecom Big Data based scenario, both for mobile and fixed communications.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Automated Teller Machines (ATMs) are sensitive self-service systems that require important investments in security and testing. ATM certifications are testing processes for machines that integrate software components from different vendors and are performed before their deployment for public use. This project was originated from the need of optimization of the certification process in an ATM manufacturing company. The process identifies compatibility problems between software components through testing. It is composed by a huge number of manual user tasks that makes the process very expensive and error-prone. Moreover, it is not possible to fully automate the process as it requires human intervention for manipulating ATM peripherals. This project presented important challenges for the development team. First, this is a critical process, as all the ATM operations rely on the software under test. Second, the context of use of ATMs applications is vastly different from ordinary software. Third, ATMs’ useful lifetime is beyond 15 years and both new and old models need to be supported. Fourth, the know-how for efficient testing depends on each specialist and it is not explicitly documented. Fifth, the huge number of tests and their importance implies the need for user efficiency and accuracy. All these factors led us conclude that besides the technical challenges, the usability of the intended software solution was critical for the project success. This business context is the motivation of this Master Thesis project. Our proposal focused in the development process applied. By combining user-centered design (UCD) with agile development we ensured both the high priority of usability and the early mitigation of software development risks caused by all the technology constraints. We performed 23 development iterations and finally we were able to provide a working solution on time according to users’ expectations. The evaluation of the project was carried out through usability tests, where 4 real users participated in different tests in the real context of use. The results were positive, according to different metrics: error rate, efficiency, effectiveness, and user satisfaction. We discuss the problems found, the benefits and the lessons learned in the process. Finally, we measured the expected project benefits by comparing the effort required by the current and the new process (once the new software tool is adopted). The savings corresponded to 40% less effort (man-hours) per certification. Future work includes additional evaluation of product usability in a real scenario (with customers) and the measuring of benefits in terms of quality improvement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hoy en día asistimos a un creciente interés por parte de la sociedad hacia el cuidado de la salud. Esta afirmación viene apoyada por dos realidades. Por una parte, el aumento de las prácticas saludables (actividad deportiva, cuidado de la alimentación, etc.). De igual manera, el auge de los dispositivos inteligentes (relojes, móviles o pulseras) capaces de medir distintos parámetros físicos como el pulso cardíaco, el ritmo respiratorio, la distancia recorrida, las calorías consumidas, etc. Combinando ambos factores (interés por el estado de salud y disponibilidad comercial de dispositivos inteligentes) están surgiendo multitud de aplicaciones capaces no solo de controlar el estado actual de salud, también de recomendar al usuario cambios de hábitos que lleven hacia una mejora en su condición física. En este contexto, los llamados dispositivos llevables (weareables) unidos al paradigma de Internet de las cosas (IoT, del inglés Internet of Things) permiten la aparición de nuevos nichos de mercado para aplicaciones que no solo se centran en la mejora de la condición física, ya que van más allá proponiendo soluciones para el cuidado de pacientes enfermos, la vigilancia de niños o ancianos, la defensa y la seguridad, la monitorización de agentes de riesgo (como bomberos o policías) y un largo etcétera de aplicaciones por llegar. El paradigma de IoT se puede desarrollar basándose en las existentes redes de sensores inalámbricos (WSN, del inglés Wireless Sensor Network). La conexión de los ya mencionados dispositivos llevables a estas redes puede facilitar la transición de nuevos usuarios hacia aplicaciones IoT. Pero uno de los problemas intrínsecos a estas redes es su heterogeneidad. En efecto, existen multitud de sistemas operativos, protocolos de comunicación, plataformas de desarrollo, soluciones propietarias, etc. El principal objetivo de esta tesis es realizar aportaciones significativas para solucionar no solo el problema de la heterogeneidad, sino también de dotar de mecanismos de seguridad suficientes para salvaguardad la integridad de los datos intercambiados en este tipo de aplicaciones. Algo de suma importancia ya que los datos médicos y biométricos de los usuarios están protegidos por leyes nacionales y comunitarias. Para lograr dichos objetivos, se comenzó con la realización de un completo estudio del estado del arte en tecnologías relacionadas con el marco de investigación (plataformas y estándares para WSNs e IoT, plataformas de implementación distribuidas, dispositivos llevables y sistemas operativos y lenguajes de programación). Este estudio sirvió para tomar decisiones de diseño fundamentadas en las tres contribuciones principales de esta tesis: un bus de servicios para dispositivos llevables (WDSB, Wearable Device Service Bus) basado en tecnologías ya existentes tales como ESB, WWBAN, WSN e IoT); un protocolo de comunicaciones inter-dominio para dispositivos llevables (WIDP, Wearable Inter-Domain communication Protocol) que integra en una misma solución protocolos capaces de ser implementados en dispositivos de bajas capacidades (como lo son los dispositivos llevables y los que forman parte de WSNs); y finalmente, la tercera contribución relevante es una propuesta de seguridad para WSN basada en la aplicación de dominios de confianza. Aunque las contribuciones aquí recogidas son de aplicación genérica, para su validación se utilizó un escenario concreto de aplicación: una solución para control de parámetros físicos en entornos deportivos, desarrollada dentro del proyecto europeo de investigación “LifeWear”. En este escenario se desplegaron todos los elementos necesarios para validar las contribuciones principales de esta tesis y, además, se realizó una aplicación para dispositivos móviles por parte de uno de los socios del proyecto (lo que contribuyó con una validación externa de la solución). En este escenario se usaron dispositivos llevables tales como un reloj inteligente, un teléfono móvil con sistema operativo Android y un medidor del ritmo cardíaco inalámbrico capaz de obtener distintos parámetros fisiológicos del deportista. Sobre este escenario se realizaron diversas pruebas de validación mediante las cuales se obtuvieron resultados satisfactorios. ABSTRACT Nowadays, society is shifting towards a growing interest and concern on health care. This phenomenon can be acknowledged by two facts: first, the increasing number of people practising some kind of healthy activity (sports, balanced diet, etc.). Secondly, the growing number of commercial wearable smart devices (smartwatches or bands) able to measure physiological parameters such as heart rate, breathing rate, distance or consumed calories. A large number of applications combining both facts are appearing. These applications are not only able to monitor the health status of the user, but also to provide recommendations about routines in order to improve the mentioned health status. In this context, wearable devices merged with the Internet of Things (IoT) paradigm enable the proliferation of new market segments for these health wearablebased applications. Furthermore, these applications can provide solutions for the elderly or baby care, in-hospital or in-home patient monitoring, security and defence fields or an unforeseen number of future applications. The introduced IoT paradigm can be developed with the usage of existing Wireless Sensor Networks (WSNs) by connecting the novel wearable devices to them. In this way, the migration of new users and actors to the IoT environment will be eased. However, a major issue appears in this environment: heterogeneity. In fact, there is a large number of operating systems, hardware platforms, communication and application protocols or programming languages, each of them with unique features. The main objective of this thesis is defining and implementing a solution for the intelligent service management in wearable and ubiquitous devices so as to solve the heterogeneity issues that are presented when dealing with interoperability and interconnectivity of devices and software of different nature. Additionally, a security schema based on trust domains is proposed as a solution to the privacy problems arising when private data (e.g., biomedical parameters or user identification) is broadcasted in a wireless network. The proposal has been made after a comprehensive state-of-the-art analysis, and includes the design of a Wearable Device Service Bus (WDSB) including the technologies collected in the requirement analysis (ESB, WWBAN, WSN and IoT). Applications are able to access the WSN services regardless of the platform and operating system where they are running. Besides, this proposal also includes the design of a Wearable Inter-Domain communication Protocols set (WIDP) which integrates lightweight protocols suitable to be used in low-capacities devices (REST, JSON, AMQP, CoAP, etc...). Furthermore, a security solution for service management based on a trustworthy domains model to deploy security services in WSNs has been designed. Although the proposal is a generic framework for applications based on services provided by wearable devices, an application scenario for testing purposes has been included. In this validation scenario it has been presented an autonomous physical condition performance system, based on a WSN, bringing the possibility to include several elements in an IoT scenario: a smartwatch, a physiological monitoring device and a smartphone. In summary, the general objective of this thesis is solving the heterogeneity and security challenges arising when developing applications for WSNs and wearable devices. As it has been presented in the thesis, the solution proposed has been successfully validated in a real scenario and the obtained results were satisfactory.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Personal data is a key asset for many companies, since this is the essence in providing personalized services. Not all companies, and specifically new entrants to the markets, have the opportunity to access the data they need to run their business. In this paper, we describe a comprehensive personal data framework that allows service providers to share and exchange personal data and knowledge about users, while facilitating users to decide who can access which data and why. We analyze the challenges related to personal data collection, integration, retrieval, and identity and privacy management, and present the framework architecture that addresses them. We also include the validation of the framework in a banking scenario, where social and financial data is collected and properly combined to generate new socio-economic knowledge about users that is then used by a personal lending service.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The building sector has experienced a significant decline in recent years in Spain and Europe as a result of the financial crisis that began in 2007. This drop accompanies a low penetration of information and communication technologies in inter-organizational oriented business processes. The market decrease is causing a slowdown in the building sector, where only flexible small and medium enterprises (SMEs) survive thanks to specialization and innovation in services, which allow them to face new market demands. Inter-organizational information systems (IOISs) support innovation in services, and are thus a strategic tool for SMEs to obtain competitive advantage. Because of the inherent complexity of IOIS adoption, this research extends Kurnia and Johnston's (2000) theoretical model of IOIS adoption with an empirical model of IOIS characterization. The resultant model identifies the factors influencing IOIS adoption in SMEs in the building sector, to promote further service innovation for competitive and collaborative advantages. An empirical longitudinal study over six consecutive years using data from Spanish SMEs in the building sector validates the model, using the partial least squares technique and analyzing temporal stability. The main findings of this research are the four ways an IOIS might contribute to service innovation in the building sector. Namely: a) improving client interfaces and the link between service providers and end users; b) defining a specific market where SMEs can develop new service concepts; c) enhancing the service delivery system in traditional customer?supplier relationships; and d) introducing information and communication technologies and tools to improve information management.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En las ciudades europeas, los patrones de movilidad son cada vez más complejos debido fundamentalmente a un crecimiento sostenido de la población así como a la tendencia de dispersión de los núcleos urbanos. En consecuencia, muchos de los usuarios del transporte público se ven obligados a combinar varios modos o servicios de transporte para completar sus viajes diarios. Por tanto, el mayor reto de las ciudades es conseguir una mejora e incremento en la movilidad mientras que al mismo tiempo se reducen problemas como la congestión, los accidentes y la contaminación (COM, 2006). Un principio básico para lograr una movilidad sostenible es reducir los inconvenientes y molestias derivados de la transferencia o ruptura del viaje. En este sentido, los intercambiadores de transporte público juegan un papel fundamental como nodos de la red urbana de transporte y la calidad del servicio prestado en ellos tiene una influencia directa sobre la experiencia diaria de los viajeros. Como señaló Terzis and Last (2002), un intercambiador de transportes urbano eficiente debe ser competitivo y al mismo tiempo, debe ser atractivo para los usuarios dado que sus experiencias físicas y sus reacciones psicológicas se ven influenciadas de manera significativa por el diseño y operación del intercambiador. Sin embargo, todavía no existen standards o normativas a nivel europeo que especifiquen como deberían ser estos intercambiadores. Esta tesis doctoral proporciona conocimientos y herramientas de análisis dirigidas a planificadores y gestores de los propios intercambiadores con el fin de entender mejor el funcionamiento de los intercambiadores y gestionar así los recursos disponibles. Así mismo, esta tesis identifica los factores clave en el diseño y operación de intercambiadores urbanos de transporte y proporciona algunas guías generales de planificación en base a ellos. Dado que las percepciones de los usuarios son particularmente importantes para definir políticas adecuadas para intercambiadores, se diseñó y se llevó a cabo en 2013 una encuesta de satisfacción al viajero en tres intercambiadores de transporte urbano europeos: Moncloa (Madrid, España), Kamppi (Helsinki, Finlandia) e Ilford Railway Station ( Londres, Reino Unido). En resumen, esta tesis pone de relieve la naturaleza ambivalente de los intercambiadores urbanos de transporte, es decir, como nodos de la red de transporte y como lugares en sí mismos donde los usuarios pasan tiempo dentro de ellos y propone algunas recomendaciones para hacer más atractivos los intercambiadores a los usuarios. Travel patterns in European urban areas are becoming increasingly complex due to a sustained increase in the urban population and the trend towards urban sprawl. Consequently, many public transport users need to combine several modes or transport services to complete their daily trips. Therefore, the challenge facing all major cities is how to increase mobility while at the same time reducing congestion, accididents and pollution (COM, 2006). Reducing the inconvenience inherent in transferring between modes is a basic principle for achieving sustainable mobility. In this regard, transport interchanges play a key role as urban transport network nodes, and the quality of the service provided in them has a direct influence on travellers' daily experience. As noted by Terzis and Last (2000), an efficient urban transport interchange must be competitive and, at the same time, be attractive for users given that their physical experiences and psychological reactions are significantly influenced by the design and operation of the interchange. However, yet there are no standards or regulations specifying the form these interchanges should take in Europe. This doctoral thesis provides knowledge and analysis tools addressed to developers and managers in order to understand better the performance of an urban transport interchange and manage the available resources properly. Likewise, key factors of the design and operation of urban transport interchanges are identified and some 'Planning guidelines' are proposed on the basis on them. Since the users' perceptions of their experience are particularly important for achieving the most appropriate policy measures for interchanges, an ad‐hoc travellers' satisfaction survey was designed and carried out in 2013 at three European transport interchanges: Moncloa (Madrid, Spain), Kamppi (Helsinki, Finland) and Ilford Railway Station (London, United Kingdom) In summary, this thesis highlights the ambivalent nature of the urban transport interchanges, i.e. as nodes within the transport network and as places where users spending time and proposes some policy recommendations in order to make urban transport interchanges attractive for users.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Customer Satisfaction Surveys (CSS) have become an important tool for public transport planners, as improvements in the perceived quality of service lead to greater use of public transport and lower traffic pollution. Until now, Intelligent Transportation System (ITS) enhancements in public transport have traditionally included fleet management systems based on Automatic Vehicle Location (AVL) technologies, which can be used to optimize routing and scheduling, and to feed real-time information into passenger information channels. However, surveys of public transport users could also benefit from the new information technologies. As most customers carry their smartphones when traveling, Quick Response (QR) codes open up the possibility of conducting these surveys at a lower cost.This paper contributes to the limited existing literature by developing the analysis of QR codes applied to CSS in public transport and highlighting their importance in reducing the cost of data collection and processing. The added value of this research is that it provides the first assessment of a real case study in Madrid (Spain) using QR codes for this purpose. This pilot experience was part of a research project analyzing bus service quality in the same case study, so the QR code survey (155 valid questionnaires) was validated using a conventional face-to-face survey (520 valid questionnaires). The results show clearly that, after overcoming a few teething troubles, this QR code application will ultimately provide transport management with a useful tool to reduce survey costs

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study proposes a marketing approach to service recovery (SR) models to explain what factors affect cumulative satisfaction, loyalty and word-of-mouth (WOM) following complaint behaviour. The model has its base on the definition of perceived justice and its influence on satisfaction with service recovery (SSR) and on emotions (positive and negative). Trust acts as a central construct in the model, receiving influence from the affective and cognitive aspect. The sample for this study consists of 303 Spanish business-to-consumer e-commerce (B2C-EC) users who made a complaint after an electronic transaction. Results from the analysis show the influence of perceived justice ? mainly interactional justice and procedural justice ? on SSR and the relevance of positive emotions as a key factor in SSR processes, in contrast to the major role that negative emotions have traditionally played in these models.