13 resultados para Usuarios de heroina

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este Proyecto Investigador se presenta como parte de la documentación requerida para el Concurso de Acceso a plazas de cuerpos docentes universitarios. Centro: E.T.S.I. de Telecomunicación. Cuerpo: Profesores Titulares de Universidad. Departamento: Señales, Sistemas y Radiocomunicaciones (0935). Área de conocimiento: Teoría de la Señal y Comunicaciones (800). Perfil docente: Radiocomunicaciones; Comunicaciones Móviles. Perfil investigador: Tecnología de las Telecomunicaciones (3325). Dedicación: Completa

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tesis constituye una contribución a los Modelos y Metodologías para la Estimación de la Calidad Percibida por los Usuarios, o Calidad de Experiencia (QoE), a partir de Parámetros de Calidad y/o Rendimiento de Red y/o Servicio (QoS) en Servicios Multimedia, y específicamente en servicios Triple-Play (3P): servicios de Televisión (TV), Telefonía y Datos ofrecidos por un mismo operador como un paquete único. En particular, se centra en los servicios Triple-Play convergentes (desplegados sobre una Red de Transporte común basada en IP, gestionada por un único operador como un Sistema Autónomo (SA)), y la relación entre la Calidad Percibida por los usuarios de dichos servicios y los parámetros de rendimiento de la Red de Transporte IP subyacente. Específicamente, contribuye a la estimación ‘en línea’ (es decir, durante la prestación del servicio, en tiempo real o casi-real) de dicha calidad. La calidad de experiencia de los usuarios es un factor determinante para el éxito o fracaso de estos servicios, y su adecuada gestión resulta por tanto un elemento crucial para el despliegue exitoso de los mismos. La calidad de experiencia resulta fácil de entender, pero compleja de implementar en sistemas reales, debido principalmente a la dificultad de su modelado, evaluación, y traducción en términos de parámetros de calidad de servicio. Mientras que la calidad de servicio puede medirse, monitorizarse y controlarse fácilmente, la calidad de experiencia es todavía muy difícil de gestionar. Una metodología completa de gestión de la calidad de experiencia debe incluir al menos: monitorización de la experiencia de los usuarios durante el consumo del servicio; adaptación de la provisión de contenidos a las condiciones variables del contexto; predicción del nivel de degradación potencial de la calidad de experiencia; y recuperación de la degradación debida a cambios en el sistema. Para conseguir un control completo de la experiencia de los usuarios finales, todas estas tareas deben ser realizadas durante la prestación del servicio y de forma coordinada. Por lo tanto, la capacidad de medir, estimar y monitorizar la calidad percibida en tiempo casi-real, y relacionarla con las condiciones de servicio de la red, resulta crítica para los proveedores de este tipo de servicios, especialmente en el caso de los más exigentes, tales como la difusión de Televisión sobre IP (IPTV). Para ello se ha seleccionado un modelo ya existente, de tipo matricial, para la estimación de la Calidad Global en servicios complejos a partir de los parámetros de funcionamiento interno de los agentes que proporcionan los servicios. Este modelo, definido en términos de servicios y sus componentes, percepciones de los usuarios, capacidades de los agentes, indicadores de rendimiento y funciones de evaluación, permite estimar la calidad global de un conjunto de servicios convergentes, tal como la perciben uno o más grupos de usuarios. Esto se consigue combinando los resultados de múltiples modelos parciales, tales que cada uno de ellos proporciona la valoración de la calidad percibida para uno de los servicios componentes, obtenida a partir de un conjunto de parámetros de rendimiento y/o Calidad de Servicio de la red de transporte IP convergente. El modelo se basa en la evaluación de las percepciones de los usuarios a partir de Factores de Valoración, calculados a partir de Indicadores de Rendimiento, que se derivan a su vez de Parámetros de Funcionamiento Interno correspondientes a las capacidades de los distintos agentes que intervienen en la prestación de los servicios. El trabajo original incluye la aplicación del modelo a un servicio 3P (datos+voz+vídeo). En este trabajo, sin embargo, el servicio dedeo (Vídeo bajo Demanda, VoD) se considera poco importante y es finalmente ignorado. En el caso de los usuarios residenciales, el servicio de voz (Voz sobre IP, VoIP) se considera asimismo poco importante y es también ignorado, por lo que el servicio global se reduce finalmente a los servicios de datos (Acceso a Internet y juegos interactivos). Esta simplificación era razonable en su momento, pero la evolución del mercado de servicios convergentes ha hecho que en la actualidad las razones que la justificaban no sean ya aplicables. En esta Tesis, por lo tanto, hemos considerado un servicio ‘Triple-Play’ completo, incluyendo servicios de datos, voz y vídeo. Partiendo de dicho modelo, se ha procedido a actualizar los servicios considerados, eliminando los no relevantes e incluyendo otros no considerados, así como a incluir nuevos elementos (percepciones) para la estimación de la calidad de los servicios; actualizar, extender y/o mejorar los modelos de estimación de los servicios ya incluidos; incluir modelos de estimación para los nuevos servicios y elementos añadidos; desarrollar nuevos modelos de estimación para aquellos servicios o elementos para los que no existen modelos adecuados; y por último, extender, actualizar y/o mejorar los modelos para la estimación de la calidad global. Con todo ello se avanza apreciablemente en la modelización y estimación de la Calidad de Experiencia (QoE) en Servicios Multimedia a partir de Parámetros de Calidad de Servicio (QoS) y/o Rendimiento de la Red, y específicamente en la estimación ‘en línea’, en tiempo casi-real, de dicha calidad en servicios Triple-Play convergentes. La presente Tesis Doctoral se enmarca en la línea de investigación sobre Calidad de Servicio del grupo de Redes y Servicios de Telecomunicación e Internet, dentro del Departamento de Ingeniería de Sistemas Telemáticos (DIT) de la Universidad Politécnica de Madrid (UPM).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La confianza es un factor clave para el establecimiento de relaciones personales y de negocios, según se ha concluido en números estudios. Se trata de un concepto multidimensional, difícil de definir y medir y que está influido por diversos factores, propios tanto de la “parte confiadora” como de la “parte confiada”. Sin un nivel mínimo de confianza, es difícil que se establezcan relaciones entre partes no conocidas. El comercio electrónico tiene una serie de características que hacen que la confianza sea más importante si cabe que en los negocios tradicionales. El presente proyecto analiza un modelo multidimensional de generación y mantenimiento de confianza para los negocios electrónicos, con el objetivo de estudiar los factores que influyen en la confianza y en sus cuatro dimensiones. Los resultados de la encuesta realizada a 134 personas, indican que la seguridad percibida es el factor más influyente en la confianza, mientras que la integridad y, en menor medida, la previsibilidad, son las dimensiones más importantes de la misma. Nuestro estudio también confirma la influencia de factores como el boca a boca, el tamaño y la marca sobre la reputación, la influencia de la familiaridad y la usabilidad sobre la facilidad de uso percibida y de ésta sobre la utilidad percibida, así como la importancia de la personalización del sitio web y la integración multicanal como antecedentes de la presencia social. Sorprendentemente, factores tradicionalmente importantes como la disposición a la confianza o la privacidad, no muestran tener influencia sobre la confianza.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This doctoral thesis focuses on the modeling of multimedia systems to create personalized recommendation services based on the analysis of users’ audiovisual consumption. Research is focused on the characterization of both users’ audiovisual consumption and content, specifically images and video. This double characterization converges into a hybrid recommendation algorithm, adapted to different application scenarios covering different specificities and constraints. Hybrid recommendation systems use both content and user information as input data, applying the knowledge from the analysis of these data as the initial step to feed the algorithms in order to generate personalized recommendations. Regarding the user information, this doctoral thesis focuses on the analysis of audiovisual consumption to infer implicitly acquired preferences. The inference process is based on a new probabilistic model proposed in the text. This model takes into account qualitative and quantitative consumption factors on the one hand, and external factors such as zapping factor or company factor on the other. As for content information, this research focuses on the modeling of descriptors and aesthetic characteristics, which influence the user and are thus useful for the recommendation system. Similarly, the automatic extraction of these descriptors from the audiovisual piece without excessive computational cost has been considered a priority, in order to ensure applicability to different real scenarios. Finally, a new content-based recommendation algorithm has been created from the previously acquired information, i.e. user preferences and content descriptors. This algorithm has been hybridized with a collaborative filtering algorithm obtained from the current state of the art, so as to compare the efficiency of this hybrid recommender with the individual techniques of recommendation (different hybridization techniques of the state of the art have been studied for suitability). The content-based recommendation focuses on the influence of the aesthetic characteristics on the users. The heterogeneity of the possible users of these kinds of systems calls for the use of different criteria and attributes to create effective recommendations. Therefore, the proposed algorithm is adaptable to different perceptions producing a dynamic representation of preferences to obtain personalized recommendations for each user of the system. The hypotheses of this doctoral thesis have been validated by conducting a set of tests with real users, or by querying a database containing user preferences - available to the scientific community. This thesis is structured based on the different research and validation methodologies of the techniques involved. In the three central chapters the state of the art is studied and the developed algorithms and models are validated via self-designed tests. It should be noted that some of these tests are incremental and confirm the validation of previously discussed techniques. Resumen Esta tesis doctoral se centra en el modelado de sistemas multimedia para la creación de servicios personalizados de recomendación a partir del análisis de la actividad de consumo audiovisual de los usuarios. La investigación se focaliza en la caracterización tanto del consumo audiovisual del usuario como de la naturaleza de los contenidos, concretamente imágenes y vídeos. Esta doble caracterización de usuarios y contenidos confluye en un algoritmo de recomendación híbrido que se adapta a distintos escenarios de aplicación, cada uno de ellos con distintas peculiaridades y restricciones. Todo sistema de recomendación híbrido toma como datos de partida tanto información del usuario como del contenido, y utiliza este conocimiento como entrada para algoritmos que permiten generar recomendaciones personalizadas. Por la parte de la información del usuario, la tesis se centra en el análisis del consumo audiovisual para inferir preferencias que, por lo tanto, se adquieren de manera implícita. Para ello, se ha propuesto un nuevo modelo probabilístico que tiene en cuenta factores de consumo tanto cuantitativos como cualitativos, así como otros factores de contorno, como el factor de zapping o el factor de compañía, que condicionan la incertidumbre de la inferencia. En cuanto a la información del contenido, la investigación se ha centrado en la definición de descriptores de carácter estético y morfológico que resultan influyentes en el usuario y que, por lo tanto, son útiles para la recomendación. Del mismo modo, se ha considerado una prioridad que estos descriptores se puedan extraer automáticamente de un contenido sin exigir grandes requisitos computacionales y, de tal forma que se garantice la posibilidad de aplicación a escenarios reales de diverso tipo. Por último, explotando la información de preferencias del usuario y de descripción de los contenidos ya obtenida, se ha creado un nuevo algoritmo de recomendación basado en contenido. Este algoritmo se cruza con un algoritmo de filtrado colaborativo de referencia en el estado del arte, de tal manera que se compara la eficiencia de este recomendador híbrido (donde se ha investigado la idoneidad de las diferentes técnicas de hibridación del estado del arte) con cada una de las técnicas individuales de recomendación. El algoritmo de recomendación basado en contenido que se ha creado se centra en las posibilidades de la influencia de factores estéticos en los usuarios, teniendo en cuenta que la heterogeneidad del conjunto de usuarios provoca que los criterios y atributos que condicionan las preferencias de cada individuo sean diferentes. Por lo tanto, el algoritmo se adapta a las diferentes percepciones y articula una metodología dinámica de representación de las preferencias que permite obtener recomendaciones personalizadas, únicas para cada usuario del sistema. Todas las hipótesis de la tesis han sido debidamente validadas mediante la realización de pruebas con usuarios reales o con bases de datos de preferencias de usuarios que están a disposición de la comunidad científica. La diferente metodología de investigación y validación de cada una de las técnicas abordadas condiciona la estructura de la tesis, de tal manera que los tres capítulos centrales se estructuran sobre su propio estudio del estado del arte y los algoritmos y modelos desarrollados se validan mediante pruebas autónomas, sin impedir que, en algún caso, las pruebas sean incrementales y ratifiquen la validación de técnicas expuestas anteriormente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Despite the growth experienced by e-commerce in recent years, results in terms of adoption rates and revenue are still far from the predictions made a few years ago. In order to achieve the expected growth rates, characteristics of con-sumers have to be studied so that an offer adapted to the customers' needs may be developed. In recent years, various methods have been used to perform consumer segmentations. In this paper we have analyzed and classified the articles published on e-commerce segmentation according to five criteria: country, target audience, type of segmentation variables, objective of segmentation and influence of product types. The results of the analysis show a small number of papers, mainly empiri-cal, that have provided only partial conclusions. New research options are pro-posed in the final section.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto realizado, trata de una aplicación desarrollada en la plataforma Android, orientada a personas con algún tipo de discapacidad sensorial o psíquica. Dicha aplicación fomenta el uso y la integración de dispositivos móviles en este tipo de sector de población. Está pensada, para que, un usuario con discapacidad, pueda interactuar con ella y de forma transparente a él, se ha creado un sistema mediante el cual, se registra todo el comportamiento que ese usuario ha tenido durante el tiempo de uso de la aplicación, con el fin de llevar un seguimiento del mismo; evaluar si existen cambios en él; determinar si son necesarios algunos cambios en la aplicación que favorezcan una mejoría en cuanto al uso y consecución de resultados en el paciente, etc. Se ha combinado el uso de una aplicación instalada sobre un sistema operativo de libre distribución, concretamente Android, con un juguete de código abierto, como es Sphero. Eso ha permito el desarrollo de una aplicación perfectamente ajustada a los requisitos funcionales definidos, con una robustez y eficiencia similar a una aplicación de sistemas operativos móviles cerrados. Es importarte remarcar, que la primera finalidad de este proyecto es ofrecer la posibilidad de usar un juguete, como Sphero, que está orientado a un sector de población sin discapacidad, haciendo uso de cualquier dispositivo móvil, a personas con diferentes grados de discapacidad sensorial, motora y psíquica. Siempre clarificando, que no existe la posibilidad de usar esta aplicación para cualquier tipo y grado de discapacidad, ya que, ello supondría, un proyecto de una envergadura enorme. El hecho de usar un dispositivo móvil, es un derecho, que todos tenemos. Y por ello, se espera que tras la lectura y comprensión de este proyecto, se motive a los lectores a seguir desarrollando aplicaciones para que cualquier usuario, con discapacidad o no, tenga las mismas oportunidades de interactuación con dispositivos móviles. The carried out project, is an application developed on the Android platform , aimed at people with some kind of sensory or mental disability . This application encourages the use and integration of mobile devices in this type of population sector. It is designed to be interacted by a disable person and transparently to that user, it has been created a system by which all behavior, that user has had during the time of use of the application, is recorded, that’s to keep track of it ; assess whether there are changes in it, determine if changes are needed in the application that favor an improvement in the use and achieving patient outcomes , etc. . It has combined the use of an application installed on an open source operating system, namely Android, an open source toy , as is Sphero . That has made it possible to develop an application perfectly adjusted to the functional requirements defined with a robustness and efficiency similar to a mobile OS application closed. It is important to note, that the first aim of this project is to offer the possibility of using a toy, like Sphero , which is geared to a sector of the population without disabilities , using any mobile device , for people with different degrees of sensory impairment , motor and mental . Always clarifying that there is no possibility to use this application for any type and degree of disability, because the magnitude of the project would have been infinitely greater. The fact of using a mobile device, is a right we all have. And so, it is expected that upon reading and understanding of this project, motivate readers to continue developing applications for any user , disabled or not, have the same opportunities for interaction with mobile devices .

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La minería de datos es un campo de las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de datos. La minería de datos busca generar información similar a la que podría producir un experto humano. Además es el proceso de descubrir conocimientos interesantes, como patrones, asociaciones, cambios, anomalías y estructuras significativas a partir de grandes cantidades de datos almacenadas en bases de datos, data warehouses o cualquier otro medio de almacenamiento de información. El aprendizaje automático o aprendizaje de máquinas es una rama de la Inteligencia artificial cuyo objetivo es desarrollar técnicas que permitan a las computadoras aprender. De forma más concreta, se trata de crear programas capaces de generalizar comportamientos a partir de una información no estructurada suministrada en forma de ejemplos. La minería de datos utiliza métodos de aprendizaje automático para descubrir y enumerar patrones presentes en los datos. En los últimos años se han aplicado las técnicas de clasificación y aprendizaje automático en un número elevado de ámbitos como el sanitario, comercial o de seguridad. Un ejemplo muy actual es la detección de comportamientos y transacciones fraudulentas en bancos. Una aplicación de interés es el uso de las técnicas desarrolladas para la detección de comportamientos fraudulentos en la identificación de usuarios existentes en el interior de entornos inteligentes sin necesidad de realizar un proceso de autenticación. Para comprobar que estas técnicas son efectivas durante la fase de análisis de una determinada solución, es necesario crear una plataforma que de soporte al desarrollo, validación y evaluación de algoritmos de aprendizaje y clasificación en los entornos de aplicación bajo estudio. El proyecto planteado está definido para la creación de una plataforma que permita evaluar algoritmos de aprendizaje automático como mecanismos de identificación en espacios inteligentes. Se estudiarán tanto los algoritmos propios de este tipo de técnicas como las plataformas actuales existentes para definir un conjunto de requisitos específicos de la plataforma a desarrollar. Tras el análisis se desarrollará parcialmente la plataforma. Tras el desarrollo se validará con pruebas de concepto y finalmente se verificará en un entorno de investigación a definir. ABSTRACT. The data mining is a field of the sciences of the computation referred to the process that it tries to discover patterns in big volumes of information. The data mining seeks to generate information similar to the one that a human expert might produce. In addition it is the process of discovering interesting knowledge, as patterns, associations, changes, abnormalities and significant structures from big quantities of information stored in databases, data warehouses or any other way of storage of information. The machine learning is a branch of the artificial Intelligence which aim is to develop technologies that they allow the computers to learn. More specifically, it is a question of creating programs capable of generalizing behaviors from not structured information supplied in the form of examples. The data mining uses methods of machine learning to discover and to enumerate present patterns in the information. In the last years there have been applied classification and machine learning techniques in a high number of areas such as healthcare, commercial or security. A very current example is the detection of behaviors and fraudulent transactions in banks. An application of interest is the use of the techniques developed for the detection of fraudulent behaviors in the identification of existing Users inside intelligent environments without need to realize a process of authentication. To verify these techniques are effective during the phase of analysis of a certain solution, it is necessary to create a platform that support the development, validation and evaluation of algorithms of learning and classification in the environments of application under study. The project proposed is defined for the creation of a platform that allows evaluating algorithms of machine learning as mechanisms of identification in intelligent spaces. There will be studied both the own algorithms of this type of technologies and the current existing platforms to define a set of specific requirements of the platform to develop. After the analysis the platform will develop partially. After the development it will be validated by prove of concept and finally verified in an environment of investigation that would be define.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objeto de este estudio es analizar el perfil sociodemográfico de los turistas desplazados a España en Compañías Aéreas de Bajo Coste durante el año 2006, y a su vez compararlo con el de los turistas que viajaron en las Compañías Aéreas Tradicionales. Los resultados muestran una asociación entre el uso de los dos tipos de compañías aéreas y una serie de variables analizadas = The main of this study is to analyze the tourists sociodemographic profile which have been move in Low Cost Carriers to Spain in 2006, and at the same time, to make a comparative with Traditional Carriers tourists. The results show an association between the use of these two types of carriers and some analyzed variables

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La aproximación de las organizaciones a la mejora de sus procesos ha venido por distintos caminos. Muchas Administraciones Públicas se acercaron a este universo a través del modelo EFQM de calidad y excelencia que surgió en la década de los 80 y que sirvió como referente en el ámbito de la Unión Europea como vía de autoevaluación y determinación de procesos de mejora continua. Está basado en la identificación de los puntos fuertes y débiles aplicados a diferentes ámbitos de la organización, siendo éstos el punto de partida para el proceso de mejora continua. Se trata de un modelo en el que puedes decir que estás en calidad aunque tu puntuación sea muy pequeña, por lo que, por imagen, muchas empresas públicas empezaron a implantarlo. La empresa privada sin embargo se decantó por los sistemas de calidad basados en normas ISO. En estos sistemas has de tener un nivel mínimo para poder exhibir una certificación o acreditación del sistema de calidad. La más extendida es la ISO 9001:2008 ya que es válida para todo tipo de empresa. Este sistema se centra en la satisfacción del cliente y está basada en gran medida en el PDCA, acrónimo de Plan, Do, Check, Act (Planificar, Hacer, Verificar y Actuar). Al tratarse de sistemas documentados, pasados los años se llega a la misma conclusión, aquellas empresas que simplemente tienen un certificado colgado en la pared y que arreglan los papeles antes de la auditoría no tienen nada que aporte valor añadido a la empresa y se autoengañan. La potencia de todo sistema de gestión de calidad reside en aprovechar el potencial de sus recursos humanos dirigiendo los recursos de la empresa de forma eficiente y haciendo participe de los objetivos de la organización a su personal para que se impliquen y sepan que se espera de cada uno. La formación de ingeniero siempre nos hace ser críticos con los modelos existentes y tratar de buscar caminos alternativos que sean más eficientes. Para ello es necesario tener un conocimiento muy preciso de la organización. Por ello, después de más de cinco años trabajando en la Organización, desempeñando diversos cometidos, analizando diferentes esferas de actuación y tras estudiar informes de diferentes organizaciones que supervisan el funcionamiento de la empresa me di cuenta que la Dirección General de la Marina Mercante podía cambiar de forma de actuar para modernizarse y ser más transparente, eficaz y eficiente. Esta tesis versa sobre la posibilidad de implantar un nuevo servicio en la Dirección General de la Marina Mercante que le permita mejorar su competitividad a nivel mundial, como estado de abanderamiento, y que, dentro de nuestras fronteras, haga que sus servicios se reorienten aprovechando el conocimiento de su personal, teniendo en cuenta las necesidades de sus usuarios y los recursos de la Organización. Las cartas de servicio permiten acercar al ciudadano al funcionamiento de la organización. Le informa de las condiciones en las que se presta el servicio, los compromisos de la empresa y la forma en la que puede participar para mejorarlos, entre otros. Por otra parte, la empresa no necesita previamente tener ningún sistema de calidad implantado, aunque, como veremos en el capítulo tres y cuatro siempre ayuda a la hora de tener sistemas de aseguramiento implantados. En el capítulo seis se detallan los objetivos que se lograrían con la implantación de las cartas de servicio en la DGMM y en el capítulo siete se discuten dichos resultados y conclusiones. ABSTRACT Different ways have been used by organizations to approach process improvement. Many Public Administrations chose quality and excellence EFQM model for that approachment. This quality program began in 80 decade and that it was the Europe Unión reference to continuous improvement autoevaluation and determination. It is based on strong and weak points of different organization fields, and they are considered as starting point for continuous improvement. This model allows enterprises to say that they are working on a quality scheme even though their score is very little, and this was why a lot of Public Administrations began using it. Nevertheless private enterprises chose quality management systems based on ISO standards. In these systems there is a threshold you must have to be able to have a certification or an accreditation of quality management system. ISO 9001:2008 is the standard most used because of it can be applied to a great range of enterprises. This system is focused on customer satisfaction and it is based on PDCA, Plan, Do, Check, Act. All these systems are documented ones, so once time goes by the same conclusion is reached: enterprises that have the certificate hung on the wall and that papers are fixed for audits have nothing that give them added value and they self-delusion. Quality management system power is related to the usage of human resources potential to lead enterprise resources efficiently and to make them participate in organization objectives. Naval architect training makes them to be critic with existing models and to try to find alternative ways to be more efficient. To achieve this goal, a precise knowledge of the organization is needed. That is the reason why, after five years in quality related issues in the Organization, in different chores, analyzing our scope and reports of organizations that supervise our operation, I realized that Merchant Marine Directorate could change the way of operation to modernize and be more transparent, efficient and effective. This thesis is about the possibility of implantation of a new service in Merchant Marine Directorate that will make it possible to improve their worldwide competitiveness as Flag State, and that to reorient all services taking into account citizens needs and Organization resources. Citizen’s charters able approachment to organization operation. It gives the following information: which are terms in which service is given, enterprise compromises, ways in which citizen can collaborate to improve them, and etc. Additionally, no quality management system is needed to be implemented. Although we’ll see in chapter three and four that having it is of great help. In chapter six are detailed goals achieved if citizen’s charters are implemented in Merchant Marine Directorate, and in chapter seven conclusions and results are discussed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En los últimos años, la realización de compras y todo tipo de trámites a través de Internet o aspectos como la presencia online de las personas han ido aumentando paulatinamente y no parece que esta tendencia vaya a invertirse a corto plazo. Esto ha provocado que los requisitos de rendimiento y personalización exigidos a estos servicios se hayan visto incrementados notablemente. Cada vez más empresas y organizaciones de todo tipo señalan la importancia que tiene una gestión adecuada de las trazas de sus usuarios para tener éxito en el mercado digital. A partir de ellas se puede obtener información que redunda en incrementos de las capacidades de adaptación y del valor de las aplicaciones. En este sentido, los avances en el campo de la ciencia de los datos y en concreto, en el aprendizaje automático, han supuesto una pieza clave en el desarrollo de técnicas que permiten analizar y extraer el máximo conocimiento posible a partir de los grandes volúmenes de datos generados por la actividad de la Web. El objetivo de este trabajo es realizar un estudio de las fases, técnicas y metodologías que actualmente se aplican en el transcurso de los proyectos de ciencia de datos y en la disciplina del aprendizaje automático. Una vez se hayan identificado aquellas más utilizadas, se aplicarán a un ejemplo realista perteneciente al ámbito de la minería web. En concreto, se desarrollarán modelos predictivos por medio de diferentes algoritmos de aprendizaje automático (regresión logística o reglas de asociación, entre otros) que permitan modelar el comportamiento de los usuarios y predecir la página web que van a visitar a continuación. Para ello se hará uso del paquete estadístico R y de la plataforma de desarrollo RStudio. Posteriormente, se procederá a determinar los principales obstáculos que se derivan de la aplicación de las técnicas del aprendizaje automático así como a determinar el rendimiento que pueden llegar a alcanzar en la práctica. Así mismo se propondrán posibles aplicaciones de los resultados obtenidos con la finalidad de proporcionar valor de negocio dentro de un entorno real. Finalmente, se desarrollarán una serie de componentes de visualización web que permitan presentar de forma gráfica los resultados extraídos del análisis así como interactuar con los distintos modelos en tiempo real. A partir de todo lo anterior se establecerá una comparativa entre los distintos modelos producidos y se destacarán las ventajas e inconvenientes de cada uno de ellos. Con todo ello se presentarán unas recomendaciones finales que recojan los factores a tener en cuenta a la hora de aplicar estos algoritmos al caso concreto de los datos de uso web.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hoy en día, los teléfonos inteligentes forman parte de la vida de la mayoría de las personas, desde los usuarios más jóvenes a los más adultos, demostrando su utilidad en distintas actividades y con objetivos diferentes, como pueden ser por cuestiones de trabajo, estudio, ocio o incluso seguridad. Con respecto a este último aspecto se ha detectado una utilidad práctica para el colectivo de peatones. Según la DGT el 48% de los fallecidos en accidentes urbanos fueron peatones. Con el objetivo de disminuir drásticamente esta cifra se ideó un proyecto que incrementara la seguridad del peatón avisándole de los potenciales peligros que pudieran afectarle. Para ello era necesario que los vehículos de su entorno, de alguna manera, informaran de su posición y trayectoria y que un software analizara esta información para detectar potenciales situaciones de riesgo. Dada la versatilidad y la ubicuidad de los teléfonos inteligentes (prácticamente la mayoría de personas lo llevan continuamente) se decidió utilizarlos como soporte para el procesado de esta información. Para especificar la funcionalidad de la aplicación se han definido una serie de historias de usuario. La aplicación desarrollada solicita a los vehículos la información necesaria para calcular sus trayectorias y comprueba si pueden suponer algún peligro para el peatón, alertándole en ese caso. ABSTRACT Nowadays, smartphones are part of most people’s life, from the youngest to the oldest users, showing their usefulness in different activities and with different objectives, such as labour issues, studies, leisure or even safety. With respect to this last point, it has been detected a practical utility for pedestrians. According to the DGT, the 48% of the deceased due to urban accidents were pedestrians. In order to slash this figure, it was devised a project to increase pedestrian safety warning him of potential hazards that could affect him. To do so, it was needed that vehicles around him report their position and trajectory, and that a software analyse this information to detect potential risk situations. Due to the versatility and ubiquity of smartphones (practically the majority of people carries them continuously), it was decided to use them as support for the processing of this information. To specify the application functionality, it has been defined a set of user stories. The application developed requests the information needed to the vehicles to calculate their trajectories and checks if they may constitute a hazard for pedestrians, alerting them if that is the case.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las personas que usan la silla de ruedas como su forma de movilidad prioritaria presentan una elevada incidencia (73%) de dolor de hombro debido al sobreuso y al movimiento repetitivo de la propulsión. Existen numerosos métodos de diagnóstico para la detección de las patologías del hombro, sin embargo la literatura reclama la necesidad de un test no invasivo y fiable, y sugiere la termografía como una técnica adecuada para evaluar el dolor articular. La termografía infrarroja (IRT) proporciona información acerca de los procesos fisiológicos a través del estudio de las distribuciones de la temperatura de la piel. Debido a la alta correlación entre ambos lados corporales, las asimetrías térmicas entre flancos contralaterales son una buena indicación de patologías o disfunciones físicas subyacentes. La fiabilidad de la IRT ha sido estudiada con anterioridad en sujetos sanos, pero nunca en usuarios de sillas de ruedas. Las características especiales de la población con discapacidad (problemas de sudoración y termorregulación, distribución sanguínea o medicación), hacen necesario estudiar los factores que afectan a la aplicación de la IRT en usuarios de sillas de ruedas. La bibliografía discrepa en cuanto a los beneficios o daños resultantes de la práctica de la actividad física en las lesiones de hombro por sobreuso en usuarios de sillas de ruedas. Recientes resultados apuntan a un aumento del riesgo de rotura del manguito rotador en personas con paraplejia que practican deportes con elevación del brazo por encima de la cabeza. Debido a esta falta de acuerdo en la literatura, surge la necesidad de analizar el perfil termográfico en usuarios de sillas de ruedas sedentarios y deportistas y su relación con el dolor de hombro. Hasta la fecha sólo se han publicado estudios termográficos durante el ejercicio en sujetos sanos. Un mayor entendimiento de la respuesta termográfica al ejercicio en silla de ruedas en relación al dolor de hombro clarificará su aparición y desarrollo y permitirá una apropiada intervención. El primer estudio demuestra que la fiabilidad de la IRT en usuarios de sillas de ruedas varía dependiendo de las zonas analizadas, y corrobora que la IRT es una técnica no invasiva, de no contacto, que permite medir la temperatura de la piel, y con la cual avanzar en la investigación en usuarios de sillas de ruedas. El segundo estudio proporciona un perfil de temperatura para usuarios de sillas de ruedas. Los sujetos no deportistas presentaron mayores asimetrías entre lados corporales que los sedentarios, y ambos obtuvieron superiores asimetrías que los sujetos sin discapacidad reportados en la literatura. Los no deportistas también presentaron resultados más elevados en el cuestionario de dolor de hombro. El área con mayores asimetrías térmicas fue hombro. En deportistas, algunas regiones de interés (ROIs) se relacionaron con el dolor de hombro. Estos resultados ayudan a entender el mapa térmico en usuarios de sillas de ruedas. El último estudio referente a la evaluación de la temperatura de la piel en usuarios de sillas de ruedas en ejercicio, reportó diferencias significativas entre la temperatura de la piel antes del test y 10 minutos después del test de propulsión de silla de ruedas, en 12 ROIs; y entre el post-test y 10 minutos después del test en la mayoría de las ROIs. Estas diferencias se vieron atenuadas cuando se compararon las asimetrías antes y después del test. La temperatura de la piel tendió a disminuir inmediatamente después completar el ejercicio, e incrementar significativamente 10 minutos después. El análisis de las asimetrías vs dolor de hombro reveló relaciones significativas negativas en 5 de las 26 ROIs. No se encontraron correlaciones significativas entre las variables de propulsión y el cuestionario de dolor de hombro. Todas las variables cinemáticas correlacionaron significativamente con las asimetrías en múltiples ROIs. Estos resultados indican que los deportistas en sillas de ruedas exhiben una capacidad similar de producir calor que los deportistas sin discapacidad; no obstante, su patrón térmico es más característico de ejercicios prolongados que de esfuerzos breves. Este trabajo contribuye al conocimiento de la termorregulación en usuarios de sillas de ruedas durante el ejercicio, y aporta información relevante para programas deportivos y de rehabilitación. ABSTRACT Individuals who use wheelchairs as their main means of mobility have a high incidence (73%) of shoulder pain (SP) owing to overuse and repetitive propulsion movement. There are numerous diagnostic methods for the detection of shoulder pathologies, however the literature claims that a noninvasive accurate test to properly assess shoulder pain would be necessary, and suggests thermography as a suitable technique for joint pain evaluation. Infrared thermography (IRT) provides information about physiological processes by studying the skin temperature (Tsk) distributions. Due to the high correlation of skin temperature between both sides of the body, thermal asymmetries between contralateral flanks are an indicator of underlying pathologies or physical dysfunctions. The reliability of infrared thermography has been studied in healthy subjects but there are no studies that have analyzed the reliability of IRT in wheelchair users (WCUs). The special characteristics of people with disabilities (sweating and thermoregulation problems, or blood distribution) make it necessary to study the factors affecting the application of IRT in WCUs. Discrepant reports exist on the benefits of, or damage resulting from, physical exercise and the relationship to shoulder overuse injuries in WCUs. Recent findings have found that overhead sports increase the risk of rotator cuff tears in wheelchair patients with paraplegia. Since there is no agreement in the literature, the thermographic profile of wheelchair athletes and nonathletes and its relation with shoulder pain should also be analysed. Infrared thermographic studies during exercise have been carried out only with able-bodied population at present. The understanding of the thermographic response to wheelchair exercise in relation to shoulder pain will offer an insight into the development of shoulder pain, which is necessary for appropriate interventions. The first study presented in this thesis demonstrates that the reliability of IRT in WCUs varies depending on the areas of the body that are analyzed. Moreover, it corroborates that IRT is a noninvasive and noncontact technique that allows the measurement of Tsk, which will allow for advances to be made in research concerned with WCUs. The second study provides a thermal profile of WCUs. Nonathletic subjects presented higher side-to-side skin temperature differences (ΔTsk) than athletes, and both had greater ΔTsk than the able-bodied results that have been published in the literature. Nonathletes also revealed larger Wheelchair Users Shoulder Pain Index (WUSPI) score than athletes. The shoulder region of interest (ROI) was the area with the highest ΔTsk of the regions measured. The analysis of the athletes’ Tsk showed that some ROIs are related to shoulder pain. These findings help to understand the thermal map in WCUs. Finally, the third study evaluated the thermal response of WCUs in exercise. There were significant differences in Tsk between the pre-test and the post-10 min in 12 ROIs, and between the post-test and the post-10 in most of the ROIs. These differences were attenuated when the ΔTsk was compared before and after exercise. Skin temperature tended to initially decrease immediately after the test, followed by a significant increase at 10 minutes after completing the exercise. The ΔTsk versus shoulder pain analysis yielded significant inverse relationships in 5 of the 26 ROIs. No significant correlations between propulsion variables and the results of the WUSPI questionnaire were found. All kinematic variables were significantly correlated with the temperature asymmetries in multiple ROIs. These results present indications that high performance wheelchair athletes exhibit similar capacity of heat production to able-bodied population; however, they presented a thermal pattern more characteristic of a prolonged exercise rather than brief exercise. This work contributes to improve the understanding about temperature changes in wheelchair athletes during exercise and provides implications to the sports and rehabilitation programs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.