11 resultados para Expectativas de ordens superiores
em Universidad Politécnica de Madrid
Resumo:
Este trabajo de investigación tiene como objetivo esencial ofrecer una solución de accesibilidad a los dispositivos móviles táctiles para personas con discapacidad física con afección en los miembros superiores. El diseño, desarrollo y validación de la solución detallada está basado en una plataforma abierta y de bajo coste como Android que, mediante la interconexión de conmutadores comerciales y el uso de un sistema de barrido con realimentación por voz sintetizada, permite al usuario acceder a todas las funciones básicas de la telefonía móvil. El análisis de los requisitos de usuario es un eje central de este trabajo para lo cual se ha contado con la participación de la Asociación de Lesionados Medulares y Grandes Discapacitados Físicos (ASPAYM), de la Asociación de Padres de Alumnos Minusválidos (APAM) y del Centro de Referencia Estatal de Atención al Daño Cerebral (CEADAC). El sistema resultante preserva las expectativas de autonomía personal y privacidad demandadas.
Resumo:
Las Tecnologías de la Información y la Comunicación en general e Internet en particular han supuesto una revolución en nuestra forma de comunicarnos, relacionarnos, producir, comprar y vender acortando tiempo y distancias entre proveedores y consumidores. A la paulatina penetración del ordenador, los teléfonos inteligentes y la banda ancha fija y/o móvil ha seguido un mayor uso de estas tecnologías entre ciudadanos y empresas. El comercio electrónico empresa–consumidor (B2C) alcanzó en 2010 en España un volumen de 9.114 millones de euros, con un incremento del 17,4% respecto al dato registrado en 2009. Este crecimiento se ha producido por distintos hechos: un incremento en el porcentaje de internautas hasta el 65,1% en 2010 de los cuales han adquirido productos o servicios a través de la Red un 43,1% –1,6 puntos porcentuales más respecto a 2010–. Por otra parte, el gasto medio por comprador ha ascendido a 831€ en 2010, lo que supone un incremento del 10,9% respecto al año anterior. Si segmentamos a los compradores según por su experiencia anterior de compra podemos encontrar dos categorías: el comprador novel –que adquirió por primera vez productos o servicios en 2010– y el comprador constante –aquel que había adquirido productos o servicios en 2010 y al menos una vez en años anteriores–. El 85,8% de los compradores se pueden considerar como compradores constantes: habían comprado en la Red en 2010, pero también lo habían hecho anteriormente. El comprador novel tiene un perfil sociodemográfico de persona joven de entre 15–24 años, con estudios secundarios, de clase social media y media–baja, estudiante no universitario, residente en poblaciones pequeñas y sigue utilizando fórmulas de pago como el contra–reembolso (23,9%). Su gasto medio anual ascendió en 2010 a 449€. El comprador constante, o comprador que ya había comprado en Internet anteriormente, tiene un perfil demográfico distinto: estudios superiores, clase alta, trabajador y residente en grandes ciudades, con un comportamiento maduro en la compra electrónica dada su mayor experiencia –utiliza con mayor intensidad canales exclusivos en Internet que no disponen de tienda presencial–. Su gasto medio duplica al observado en compradores noveles (con una media de 930€ anuales). Por tanto, los compradores constantes suponen una mayoría de los compradores con un gasto medio que dobla al comprador que ha adoptado el medio recientemente. Por consiguiente es de interés estudiar los factores que predicen que un internauta vuelva a adquirir un producto o servicio en la Red. La respuesta a esta pregunta no se ha revelado sencilla. En España, la mayoría de productos y servicios aún se adquieren de manera presencial, con una baja incidencia de las ventas a distancia como la teletienda, la venta por catálogo o la venta a través de Internet. Para dar respuesta a las preguntas planteadas se ha investigado desde distintos puntos de vista: se comenzará con un estudio descriptivo desde el punto de vista de la demanda que trata de caracterizar la situación del comercio electrónico B2C en España, poniendo el foco en las diferencias entre los compradores constantes y los nuevos compradores. Posteriormente, la investigación de modelos de adopción y continuidad en el uso de las tecnologías y de los factores que inciden en dicha continuidad –con especial interés en el comercio electrónico B2C–, permiten afrontar el problema desde la perspectiva de las ecuaciones estructurales pudiendo también extraer conclusiones de tipo práctico. Este trabajo sigue una estructura clásica de investigación científica: en el capítulo 1 se introduce el tema de investigación, continuando con una descripción del estado de situación del comercio electrónico B2C en España utilizando fuentes oficiales (capítulo 2). Posteriormente se desarrolla el marco teórico y el estado del arte de modelos de adopción y de utilización de las tecnologías (capítulo 3) y de los factores principales que inciden en la adopción y continuidad en el uso de las tecnologías (capítulo 4). El capítulo 5 desarrolla las hipótesis de la investigación y plantea los modelos teóricos. Las técnicas estadísticas a utilizar se describen en el capítulo 6, donde también se analizan los resultados empíricos sobre los modelos desarrollados en el capítulo 5. El capítulo 7 expone las principales conclusiones de la investigación, sus limitaciones y propone nuevas líneas de investigación. La primera parte corresponde al capítulo 1, que introduce la investigación justificándola desde un punto de vista teórico y práctico. También se realiza una breve introducción a la teoría del comportamiento del consumidor desde una perspectiva clásica. Se presentan los principales modelos de adopción y se introducen los modelos de continuidad de utilización que se estudiarán más detalladamente en el capítulo 3. En este capítulo se desarrollan los objetivos principales y los objetivos secundarios, se propone el mapa mental de la investigación y se planifican en un cronograma los principales hitos del trabajo. La segunda parte corresponde a los capítulos dos, tres y cuatro. En el capítulo 2 se describe el comercio electrónico B2C en España utilizando fuentes secundarias. Se aborda un diagnóstico del sector de comercio electrónico y su estado de madurez en España. Posteriormente, se analizan las diferencias entre los compradores constantes, principal interés de este trabajo, frente a los compradores noveles, destacando las diferencias de perfiles y usos. Para los dos segmentos se estudian aspectos como el lugar de acceso a la compra, la frecuencia de compra, los medios de pago utilizados o las actitudes hacia la compra. El capítulo 3 comienza desarrollando los principales conceptos sobre la teoría del comportamiento del consumidor, para continuar estudiando los principales modelos de adopción de tecnología existentes, analizando con especial atención su aplicación en comercio electrónico. Posteriormente se analizan los modelos de continuidad en el uso de tecnologías (Teoría de la Confirmación de Expectativas; Teoría de la Justicia), con especial atención de nuevo a su aplicación en el comercio electrónico. Una vez estudiados los principales modelos de adopción y continuidad en el uso de tecnologías, el capítulo 4 analiza los principales factores que se utilizan en los modelos: calidad, valor, factores basados en la confirmación de expectativas –satisfacción, utilidad percibida– y factores específicos en situaciones especiales –por ejemplo, tras una queja– como pueden ser la justicia, las emociones o la confianza. La tercera parte –que corresponde al capítulo 5– desarrolla el diseño de la investigación y la selección muestral de los modelos. En la primera parte del capítulo se enuncian las hipótesis –que van desde lo general a lo particular, utilizando los factores específicos analizados en el capítulo 4– para su posterior estudio y validación en el capítulo 6 utilizando las técnicas estadísticas apropiadas. A partir de las hipótesis, y de los modelos y factores estudiados en los capítulos 3 y 4, se definen y vertebran dos modelos teóricos originales que den respuesta a los retos de investigación planteados en el capítulo 1. En la segunda parte del capítulo se diseña el trabajo empírico de investigación definiendo los siguientes aspectos: alcance geográfico–temporal, tipología de la investigación, carácter y ambiente de la investigación, fuentes primarias y secundarias utilizadas, técnicas de recolección de datos, instrumentos de medida utilizados y características de la muestra utilizada. Los resultados del trabajo de investigación constituyen la cuarta parte de la investigación y se desarrollan en el capítulo 6, que comienza analizando las técnicas estadísticas basadas en Modelos de Ecuaciones Estructurales. Se plantean dos alternativas, modelos confirmatorios correspondientes a Métodos Basados en Covarianzas (MBC) y modelos predictivos. De forma razonada se eligen las técnicas predictivas dada la naturaleza exploratoria de la investigación planteada. La segunda parte del capítulo 6 desarrolla el análisis de los resultados de los modelos de medida y modelos estructurales construidos con indicadores formativos y reflectivos y definidos en el capítulo 4. Para ello se validan, sucesivamente, los modelos de medida y los modelos estructurales teniendo en cuenta los valores umbrales de los parámetros estadísticos necesarios para la validación. La quinta parte corresponde al capítulo 7, que desarrolla las conclusiones basándose en los resultados del capítulo 6, analizando los resultados desde el punto de vista de las aportaciones teóricas y prácticas, obteniendo conclusiones para la gestión de las empresas. A continuación, se describen las limitaciones de la investigación y se proponen nuevas líneas de estudio sobre distintos temas que han ido surgiendo a lo largo del trabajo. Finalmente, la bibliografía recoge todas las referencias utilizadas a lo largo de este trabajo. Palabras clave: comprador constante, modelos de continuidad de uso, continuidad en el uso de tecnologías, comercio electrónico, B2C, adopción de tecnologías, modelos de adopción tecnológica, TAM, TPB, IDT, UTAUT, ECT, intención de continuidad, satisfacción, confianza percibida, justicia, emociones, confirmación de expectativas, calidad, valor, PLS. ABSTRACT Information and Communication Technologies in general, but more specifically those related to the Internet in particular, have changed the way in which we communicate, relate to one another, produce, and buy and sell products, reducing the time and shortening the distance between suppliers and consumers. The steady breakthrough of computers, Smartphones and landline and/or wireless broadband has been greatly reflected in its large scale use by both individuals and businesses. Business–to–consumer (B2C) e–commerce reached a volume of 9,114 million Euros in Spain in 2010, representing a 17.4% increase with respect to the figure in 2009. This growth is due in part to two different facts: an increase in the percentage of web users to 65.1% en 2010, 43.1% of whom have acquired products or services through the Internet– which constitutes 1.6 percentage points higher than 2010. On the other hand, the average spending by individual buyers rose to 831€ en 2010, constituting a 10.9% increase with respect to the previous year. If we select buyers according to whether or not they have previously made some type of purchase, we can divide them into two categories: the novice buyer–who first made online purchases in 2010– and the experienced buyer: who also made purchases in 2010, but had done so previously as well. The socio–demographic profile of the novice buyer is that of a young person between 15–24 years of age, with secondary studies, middle to lower–middle class, and a non–university educated student who resides in smaller towns and continues to use payment methods such as cash on delivery (23.9%). In 2010, their average purchase grew to 449€. The more experienced buyer, or someone who has previously made purchases online, has a different demographic profile: highly educated, upper class, resident and worker in larger cities, who exercises a mature behavior when making online purchases due to their experience– this type of buyer frequently uses exclusive channels on the Internet that don’t have an actual store. His or her average purchase doubles that of the novice buyer (with an average purchase of 930€ annually.) That said, the experienced buyers constitute the majority of buyers with an average purchase that doubles that of novice buyers. It is therefore of interest to study the factors that help to predict whether or not a web user will buy another product or use another service on the Internet. The answer to this question has proven not to be so simple. In Spain, the majority of goods and services are still bought in person, with a low amount of purchases being made through means such as the Home Shopping Network, through catalogues or Internet sales. To answer the questions that have been posed here, an investigation has been conducted which takes into consideration various viewpoints: it will begin with a descriptive study from the perspective of the supply and demand that characterizes the B2C e–commerce situation in Spain, focusing on the differences between experienced buyers and novice buyers. Subsequently, there will be an investigation concerning the technology acceptance and continuity of use of models as well as the factors that have an effect on their continuity of use –with a special focus on B2C electronic commerce–, which allows for a theoretic approach to the problem from the perspective of the structural equations being able to reach practical conclusions. This investigation follows the classic structure for a scientific investigation: the subject of the investigation is introduced (Chapter 1), then the state of the B2C e–commerce in Spain is described citing official sources of information (Chapter 2), the theoretical framework and state of the art of technology acceptance and continuity models are developed further (Chapter 3) and the main factors that affect their acceptance and continuity (Chapter 4). Chapter 5 explains the hypothesis behind the investigation and poses the theoretical models that will be confirmed or rejected partially or completely. In Chapter 6, the technical statistics that will be used are described briefly as well as an analysis of the empirical results of the models put forth in Chapter 5. Chapter 7 explains the main conclusions of the investigation, its limitations and proposes new projects. First part of the project, chapter 1, introduces the investigation, justifying it from a theoretical and practical point of view. It is also a brief introduction to the theory of consumer behavior from a standard perspective. Technology acceptance models are presented and then continuity and repurchase models are introduced, which are studied more in depth in Chapter 3. In this chapter, both the main and the secondary objectives are developed through a mind map and a timetable which highlights the milestones of the project. The second part of the project corresponds to Chapters Two, Three and Four. Chapter 2 describes the B2C e–commerce in Spain from the perspective of its demand, citing secondary official sources. A diagnosis concerning the e–commerce sector and the status of its maturity in Spain is taken on, as well as the barriers and alternative methods of e–commerce. Subsequently, the differences between experienced buyers, which are of particular interest to this project, and novice buyers are analyzed, highlighting the differences between their profiles and their main transactions. In order to study both groups, aspects such as the place of purchase, frequency with which online purchases are made, payment methods used and the attitudes of the purchasers concerning making online purchases are taken into consideration. Chapter 3 begins by developing the main concepts concerning consumer behavior theory in order to continue the study of the main existing acceptance models (among others, TPB, TAM, IDT, UTAUT and other models derived from them) – paying special attention to their application in e–commerce–. Subsequently, the models of technology reuse are analyzed (CDT, ECT; Theory of Justice), focusing again specifically on their application in e–commerce. Once the main technology acceptance and reuse models have been studied, Chapter 4 analyzes the main factors that are used in these models: quality, value, factors based on the contradiction of expectations/failure to meet expectations– satisfaction, perceived usefulness– and specific factors pertaining to special situations– for example, after receiving a complaint justice, emotions or confidence. The third part– which appears in Chapter 5– develops the plan for the investigation and the sample selection for the models that have been designed. In the first section of the Chapter, the hypothesis is presented– beginning with general ideas and then becoming more specific, using the detailed factors that were analyzed in Chapter 4– for its later study and validation in Chapter 6– as well as the corresponding statistical factors. Based on the hypothesis and the models and factors that were studied in Chapters 3 and 4, two original theoretical models are defined and organized in order to answer the questions posed in Chapter 1. In the second part of the Chapter, the empirical investigation is designed, defining the following aspects: geographic–temporal scope, type of investigation, nature and setting of the investigation, primary and secondary sources used, data gathering methods, instruments according to the extent of their use and characteristics of the sample used. The results of the project constitute the fourth part of the investigation and are developed in Chapter 6, which begins analyzing the statistical techniques that are based on the Models of Structural Equations. Two alternatives are put forth: confirmatory models which correspond to Methods Based on Covariance (MBC) and predictive models– Methods Based on Components–. In a well–reasoned manner, the predictive techniques are chosen given the explorative nature of the investigation. The second part of Chapter 6 explains the results of the analysis of the measurement models and structural models built by the formative and reflective indicators defined in Chapter 4. In order to do so, the measurement models and the structural models are validated one by one, while keeping in mind the threshold values of the necessary statistic parameters for their validation. The fifth part corresponds to Chapter 7 which explains the conclusions of the study, basing them on the results found in Chapter 6 and analyzing them from the perspective of the theoretical and practical contributions, and consequently obtaining conclusions for business management. The limitations of the investigation are then described and new research lines about various topics that came up during the project are proposed. Lastly, all of the references that were used during the project are listed in a final bibliography. Key Words: constant buyer, repurchase models, continuity of use of technology, e–commerce, B2C, technology acceptance, technology acceptance models, TAM, TPB, IDT, UTAUT, ECT, intention of repurchase, satisfaction, perceived trust/confidence, justice, feelings, the contradiction of expectations, quality, value, PLS.
Resumo:
En plena implantación de los nuevos planes de estudio de acuerdo al EEES, las universidades se enfrentan a un nuevo modelo educativo basado en competencias: competencias específicas y competencias generales. Las competencias específicas están asociadas a la adquisición y desarrollo de conocimientos de un área en particular, mientras que las competencias generales son transversales al plan de estudios y definen capacidades, habilidades y/o aptitudes que el alumno debe desarrollar para aplicarlas a lo largo de su carrera profesional. El objetivo de este trabajo es proporcionar una guía al docente sobre las posibles mejoras para tratar el mayor número de competencias generales satisfactoriamente. Concretamente, se ha analizado la manera en la que los docentes están promoviendo y desarrollando las competencias generales con el objetivo de detectar carencias, mejoras y necesidades. El análisis se ha realizado sobre el profesorado de la Titulación de Graduado en Ingeniería del Software de la Universidad Politécnica de Madrid.
Resumo:
El software plantea un cierto número de problemas: costes relativamente muy elevados, infiabilidad, importabilidad, incumplimiento de especificaciones y, en general, dificultades serias en sus procesos de desarrollo y mantenimiento. Naturalmente,hablar de estos problemas supone referirse a un software de cierta envergadura, como puede ser cualquier aplicación informática que supere los seis me ses de trabajo y los problemas se acentúan con el aumento de su volumen y complejidad.
Resumo:
La aplicación de nuevas tecnologías en productos tradicionales puede modificar su percepción entre los consumidores así como su valor de mercado. Por ello, es interesante evaluar no sólo la aceptación sino también el precio que estaría dispuesto a pagar el consumidor por un producto innovado. El objetivo de este trabajo es evaluar la respuesta del consumidor español ante la aplicación de altas presiones hidrostáticas en un producto tradicional como el jamón serrano. Para ello se realizó un estudio de consumidores (n=229) organizado en dos etapas. En la primera se evaluaron dos productos (jamón serrano tratado y no tratado con altas presiones hidrostáticas) en tres condiciones: cata a ciegas, expectativas y cata informada. En la segunda etapa, se determinó el precio que estaría dispuesto a pagar el consumidor por ambos productos (jamón serrano con y sin tratamiento por altas presiones) mediante subastas experimentales. No se observaron diferencias estadísticamente significativas en la aceptación ni en el precio que estaría dispuesto a pagar el consumidor por el jamón tratado frente al no tratado. Se puede concluir que el consumidor español acepta el tratamiento de altas presiones hidrostáticas en el jamón serrano, aunque no está dispuesto a pagar más por dicha innovación.
Resumo:
En el planteamiento de las expectativas que los organismos de investigación universitaria de nuestro país pueden plantearse ante los próximos años, dos son los hechos básicos que han de tenerse en cuenta. Uno es, el obvio, de cuál es la situación en la que les gustaría encontrarse al comienzo de la década de los 90. Y el otro es el realista del análisis objetivo de su situación actual.
Resumo:
En este trabajo de Tesis Doctoral se ha estudiado la posibilidad de emplear las microalgas, concretamente el género Scenedesmus, como sustrato para la producción de biogás mediante digestión anaerobia, así como los residuos que se producen como consecuencia de su utilización industrial para diferentes fines. La utilización de las microalgas para la producción de biocombustibles es un tema de gran actualidad científica, en el que residen muchas expectativas para la producción a gran escala de biocombustibles que supongan una alternativa real a los combustibles fósiles. Existen numerosas investigaciones sobre la conversión a biogás de las microalgas, sin embargo aún hay poco conocimiento sobre la utilización de la digestión anaerobia como tratamiento de residuos de microalgas en un concepto de biorrefinería. Residuos que pueden ser generados tras la extracción de compuestos de alto valor añadido (p. ej. aminoácidos) o tras la generación de otro biocombustible (p. ej. biodiésel). Es en este aspecto en el que esta Tesis Doctoral destaca en cuanto a originalidad e innovación, ya que se ha centrado principalmente en tres posibilidades: - Empleo de Scenedesmus sp. como cultivo energético para la producción de biogás. - Tratamiento de residuos de Scenedesmus sp. generados tras la extracción de aminoácidos en un concepto de biorrefinería. - Tratamiento de los residuos de Scenedesmus sp. generados tras la extracción de lípidos en un concepto de biorrefinería. Los resultados obtenidos demuestran que la microalga Scenedesmus como cultivo energético para producción de biogás no es viable salvo que se empleen pretratamientos que aumenten la biodegradabilidad o se realice codigestión con otro sustrato. En este último caso, la chumbera (Opuntia maxima Mill.) ha resultado ser un sustrato idóneo para la codigestión con microalgas, aumentando la producción de biogás y metano hasta niveles superiores a 600 y 300 L kgSV-1, respectivamente. Por otro lado, el tratamiento de residuos generados tras la extracción de aminoácidos mediante digestión anaerobia es prometedor. Se obtuvieron elevados rendimientos de biogás y metano en las condiciones de operación óptimas (409 y 292 L kgSV-1, respectivamente). Aparte de la generación energética por medio el metano, que podría emplearse en la propia biorrefinería o venderse a la red eléctrica o de gas natural, reciclando el digerido y el CO2 del biogás se podría llegar a ahorrar alrededor del 30% del fertilizante mineral y el 25% del CO2 necesarios para el cultivo de nueva biomasa. Por lo tanto, la digestión anaerobia de los residuos de microalgas en un concepto de biorrefinería tiene un gran potencial y podría contribuir en gran medida al desarrollo de esta industria. Por último, una primera aproximación al tratamiento de residuos generados tras la extracción de lípidos muestra que éstos pueden ser empleados para la producción de biogás, como monosustrato, o en codigestión con glicerina, ya que son fácilmente biodegradables y el rendimiento potencial de metano puede alcanzar 218 LCH4 kgSV-1 y 262 LCH4 kg SV-1 en monodigestión o en codigestión con glicerina, respectivamente. ABSTRACT This PhD thesis explores the possibility of using microalgae, specifically the strain Scenedesmus, as substrate for biogas production through anaerobic digestion, as well as the residues generated after its use in different industrial processes. The use of microalgae for biofuels production is an emerging scientific issue. The possibility of producing biofuels from microalgae as a real alternative for fossil fuels is raising high expectations. There are several research projects on the conversion of microalgae to biogas; however, there is little knowledge about using anaerobic digestion for treating microalgae residues in a biorefinery scheme. These residues could be generated after the extraction of high value compounds (e.g. amino acids) or after the production of another biofuel (e.g. biodiesel). It is in this area in which this PhD thesis stands in terms of originality and innovation, since it has focused primarily on three possibilities: - The use of Scenedesmus sp. as an energy crop for biogas production. - Treatment of amino acid extracted Scenedesmus residues generated in a biorefinery. - Treatment of lipid extracted Scenedesmus residues generated in a biorefinery. The results obtained in this work show that the use of Scenedesmus as energy crop for biogas production is not viable. The application of pretreatments to increase biodegradability or the codigestion of Scenedesmus biomass with other substrate can improve the digestion process. In this latter case, prickly pear (Opuntia maxima Mill.) is an ideal substrate for its codigestion with microalgae, increasing biogas and methane yields up to more than 600 and 300 L kgVS-1, respectively. On the other hand, the treatment of residues generated after amino acid extraction through anaerobic digestion is promising. High biogas and methane yields were obtained (409 y 292 L kgVS-1, respectively). Besides the energy produced through methane, which could be used in the biorefinery or be sold to the power or natural gas grids, by recycling the digestate and the CO2 30% of fertilizer needs and 25% of CO2 needs could be saved to grow new microalgae biomass. Therefore, the anaerobic digestion of microalgae residues generated in biorefineries is promising and it could play an important role in the development of this industry. Finally, a first approach to the treatment of residues generated after lipid extraction showed that these residues could be used for the production of biogas, since they are highly biodegradable. The potential methane yield could reach 218 LCH4 kgVS-1 when they are monodigested, whereas the potential methane yield reached 262 LCH4 kgVS-1 when residues were codigested with residual glycerin.
Resumo:
La autopista del Ebro, en el itinerario Bilbao-Zaragoza, ha sido objeto de concurso para su construcción y explotación en régimen de peaje, siendo adjudicataria de la misma la empresa Autopista Vasco-Aragonesa, Concesionaria Española, S.A. La concesión de la construcción y explotación del mencionado itinerario, incluía la obligación de construir la Ronda Norte de Zaragoza, que se desarrolla a lo largo de 11 kilómetros entre la Carretera Nacional II, de Madrid a Barcelona, y la autopista de Alfajarín, comienzo del itinerario Zaragoza-Vendrell que completa la Autopista del Ebro. El itinerario total está dividido en once tramos, de los que el décimo se desarrolla entre el enlace de Alagón y Zaragoza, y el undécimo es la propia Ronda Norte de Zaragoza. Estos dos tramos se cruzan prácticamente en ángulo recto a unos 4 kilómetros de la Avenida de Mª Agustín, donde finaliza la Autopista. En el Anteproyecto de la Administración se daba continuidad a la Ronda Norte y a la penetración de la Autopista en Zaragoza, dejando el recorrido Bilbao-Barcelona como un ramal del enlace. La Sociedad Concesionaria introdujo una modificación sustancial en éste, que fue aprobada por la Administración, dando continuidad geométrica y funcional a la Autopista del Ebro, a través del tramo de Ronda Norte, hacia la autopista ya existente Zaragoza- Alfajarín, y con la que estaba entonces en construcción y hoy ya está en funcionamiento, de Alfajarín a Vendrell. De esta forma, la penetración en Zaragoza, del itinerario Bilbao-Zaragoza, se desprende del tronco principal como un ramal de acceso, e igualmente lo hace la propia Ronda Norte, en su dirección hacia la carretera N-II.
Resumo:
“Quien contamina, paga“, con esta premisa surgió la idea de este Trabajo Fin de Máster, en adelante TFM, cuyo objetivo era identificar medidas alternativas reales para una optimización del proceso actual de gestión de residuos sólidos urbanos ante una sociedad cada vez más superpoblada y con mayores ratios de consumo. Cada español genera anualmente un volumen de 485 Kg de residuos, de los cuales únicamente el 33 % son reciclados y pueden volver a un flujo normal de uso, especialmente preocupante durante los últimos años es el auge de los productos envasados, tanto de bebidas como de alimentos , cuya utilización se ha duplicado en la última década. La motivación de este trabajo Fin de Máster ha sido la de poner de manifiesto que la sostenibilidad con el medioambiente puede ir de la mano de la rentabilidad y del progreso. Durante este TFM se ha estudiado y analizado la viabilidad económica de implantación de un nuevo modelo de depósito, devolución y retorno en el mercado retail español y como con la adopción de este nuevo sistema se pueden lograr beneficios tanto para el propio minorista, como para el medio ambiente con ratios de reciclado superiores al 98%. La preocupación por el medio ambiente empieza a ser una constante entre los consumidores españoles y dicha preocupación comienza a ser influenciadora en las decisiones de compra (productos eco, sostenibilidad…). Nuestra propuesta consiste en dotar a los principales distribuidores del sector retail español de un sistema de depósito, devolución y retorno para envases de bebidas capaz de generar diferenciación, innovación y rentabilidad frente a la competencia. Dicho sistema consiste en pagar un depósito por cada envase de bebida que se adquiera y su correspondiente devolución en la siguiente compra, una vez que se devuelva vacío al establecimiento. Para ello se ha analizado el sector de la distribución en España, especialmente la distribución de bebidas. Se trata de un sector muy competitivo, que presenta varios formatos en función del tamaño del establecimiento (Hipermercados, Supermercados, tiendas tradicionales). Las principales empresas distribuidoras (Carrefour, Mercadona, Alcampo, Eroski, DIA) se encuentran en procesos de cambios estratégicos para lograr atraer a más consumidores hacia sus tiendas, por lo que nuestra propuesta podrá añadir valor a la hora de influenciar en la decisión del lugar de compra. En nuestro caso, nos dirigiremos principalmente a las grandes empresas distribuidoras, Hipermercados de más de 2.500 m2 ,que cuentan con más de 500 puntos de venta y distribución donde existe la posibilidad real de implantar un SDDR. Además se ha realizado un estudio de mercado sobre la influencia de dicho sistema en el consumidor final, donde se ha detectado dos segmentos principales cuya decisión de compra se vería muy influenciada por la implantación de un SDDR, un segmento Sénior, entre 45-54 años, preocupados por el medio ambiente y con poder adquisitivo suficiente como para que el pago del depósito no sea bloqueante, y un segmento Junior, entre 18-24 años, también muy concienciado el medio ambiente, de capacidad económica menor pero qué influye en la decisión de compra de sus progenitores. Para llevar a cabo este plan de negocio será necesario una inversión inicial de 57.000 €, con unas expectativas de recuperación de dicha inversión en el primer año y una TIR del 56%, presentando un VAN de 127.961 € para los 7 años de vida del proyecto. Para dar a conocer a los clientes del Hipermercado los beneficios de utilizar un sistema SDDR, se realizarán campañas de marketing a través de diferentes canales, promociones de apertura, acciones de marketing exteriores y planes de fidelización. La organización e implantación en el Hipermercado será muy sencilla con roles claramente diferenciados, únicamente involucraría a unos 9 recursos definidos y en aproximadamente 3 meses desde el inicio del proyecto ya se podría ofertar dicho servicio a los clientes del Hipermercado. Además se han analizado los principales riesgos a los que se enfrentaría el negocio, ponderándose en una matriz impacto-probabilidad. Se han establecido medidas correctoras en el caso que dicho riesgo aflore. Habrá que tener especialmente precaución con la pérdida de ventas durante el arranque del negocio en el caso que esto ocurra, por lo que se deberá controlar el gasto, fomentar la captación de clientes y mantener un fondo de maniobra lo suficientemente elevado como para absorber dicho riesgo.---ABSTRACT---“Polluters pay”, with this premise this TFM aimed at identifying real alternative measures for optimization of the current process of solid waste management in a crowded society and with greater consumption ratios. Spaniards generates an annual volume of 485 kg of waste; only 33 % are recycled and can return to a normal flow. Specially concern is the increased of packaged product in recent years, mainly drink and food, their use has been duplicated in the last decade. The motivation for this Thesis was to highlight that sustainability, profitability and progress can go together. During this TFM has been studied and analyzed the economic feasibility of implementing a new model of deposit , refund and return in the Spanish retail market and as with the adoption of this new system can achieve benefits for the retailer itself therefore to the environment with ratios above 98% recycled. Concern for the environment is becoming a constant among Spanish consumers , and this concern is becoming influencer in purchasing decisions ( eco, sustainability ... ) . Our proposal is to provide the main distributors of the Spanish retail sector a system of deposit, refund and return for beverage containers capable of generating differentiation, innovation and profitability over the competition. This system is to pay a deposit for each beverage container they purchase and their corresponding return in the next purchase, once they return empty to the establishment. For this we have analyzed the distribution sector in Spain, especially the distribution of beverages. This is a highly competitive industry, which features various formats depending on the size of establishments (hypermarkets, supermarkets, traditional shops). The main distribution companies (Carrefour, Mercadona, Alcampo, Eroski, DIA) are in the process of strategic changes in order to attract more consumers to their stores, so that our approach can add value in influencing the decision of place shopping. In our case, we will go mainly to large distributors, Hypermarkets of over 2,500 m2, which have more than 500 outlets and distribution where there is a real possibility of implementing a SDDR. It has also conducted a market study on the influence of that system on the final consumer, which has detected two main segments whose purchasing decisions would be greatly influenced by the introduction of a SDDR, a Senior segment, 45-54 years concerned about the environment and purchasing power enough that the deposit is not blocking, and a Junior Segment, aged 18-24, also concern with environment, lower economic capacity but what influences the decision purchase of their parents). To carry out this business plan will require an initial investment of 57,000 €, with expectations of recovery of such investment in the first year and an IRR of 56%, with an NPV of € 127,961 for the 7 years of the project . To publicize hypermarket customers the benefits of using a SDDR system, marketing campaigns conducted through different channels, opening promotions, marketing activities and external loyalty schemes. The organization and implementation in the Hypermarket is easy with distinct roles, involve only about 9 resourced and in about 3 months from the start of the project and could offer this service to customers in the hypermarket. We have also analyzed the main risks and established corrective measures to surface that risk . We should take caution with lost sales during startup of the business, such as control spending, customer retention and maintaining enough working capital.
Resumo:
La aproximación de las organizaciones a la mejora de sus procesos ha venido por distintos caminos. Muchas Administraciones Públicas se acercaron a este universo a través del modelo EFQM de calidad y excelencia que surgió en la década de los 80 y que sirvió como referente en el ámbito de la Unión Europea como vía de autoevaluación y determinación de procesos de mejora continua. Está basado en la identificación de los puntos fuertes y débiles aplicados a diferentes ámbitos de la organización, siendo éstos el punto de partida para el proceso de mejora continua. Se trata de un modelo en el que puedes decir que estás en calidad aunque tu puntuación sea muy pequeña, por lo que, por imagen, muchas empresas públicas empezaron a implantarlo. La empresa privada sin embargo se decantó por los sistemas de calidad basados en normas ISO. En estos sistemas has de tener un nivel mínimo para poder exhibir una certificación o acreditación del sistema de calidad. La más extendida es la ISO 9001:2008 ya que es válida para todo tipo de empresa. Este sistema se centra en la satisfacción del cliente y está basada en gran medida en el PDCA, acrónimo de Plan, Do, Check, Act (Planificar, Hacer, Verificar y Actuar). Al tratarse de sistemas documentados, pasados los años se llega a la misma conclusión, aquellas empresas que simplemente tienen un certificado colgado en la pared y que arreglan los papeles antes de la auditoría no tienen nada que aporte valor añadido a la empresa y se autoengañan. La potencia de todo sistema de gestión de calidad reside en aprovechar el potencial de sus recursos humanos dirigiendo los recursos de la empresa de forma eficiente y haciendo participe de los objetivos de la organización a su personal para que se impliquen y sepan que se espera de cada uno. La formación de ingeniero siempre nos hace ser críticos con los modelos existentes y tratar de buscar caminos alternativos que sean más eficientes. Para ello es necesario tener un conocimiento muy preciso de la organización. Por ello, después de más de cinco años trabajando en la Organización, desempeñando diversos cometidos, analizando diferentes esferas de actuación y tras estudiar informes de diferentes organizaciones que supervisan el funcionamiento de la empresa me di cuenta que la Dirección General de la Marina Mercante podía cambiar de forma de actuar para modernizarse y ser más transparente, eficaz y eficiente. Esta tesis versa sobre la posibilidad de implantar un nuevo servicio en la Dirección General de la Marina Mercante que le permita mejorar su competitividad a nivel mundial, como estado de abanderamiento, y que, dentro de nuestras fronteras, haga que sus servicios se reorienten aprovechando el conocimiento de su personal, teniendo en cuenta las necesidades de sus usuarios y los recursos de la Organización. Las cartas de servicio permiten acercar al ciudadano al funcionamiento de la organización. Le informa de las condiciones en las que se presta el servicio, los compromisos de la empresa y la forma en la que puede participar para mejorarlos, entre otros. Por otra parte, la empresa no necesita previamente tener ningún sistema de calidad implantado, aunque, como veremos en el capítulo tres y cuatro siempre ayuda a la hora de tener sistemas de aseguramiento implantados. En el capítulo seis se detallan los objetivos que se lograrían con la implantación de las cartas de servicio en la DGMM y en el capítulo siete se discuten dichos resultados y conclusiones. ABSTRACT Different ways have been used by organizations to approach process improvement. Many Public Administrations chose quality and excellence EFQM model for that approachment. This quality program began in 80 decade and that it was the Europe Unión reference to continuous improvement autoevaluation and determination. It is based on strong and weak points of different organization fields, and they are considered as starting point for continuous improvement. This model allows enterprises to say that they are working on a quality scheme even though their score is very little, and this was why a lot of Public Administrations began using it. Nevertheless private enterprises chose quality management systems based on ISO standards. In these systems there is a threshold you must have to be able to have a certification or an accreditation of quality management system. ISO 9001:2008 is the standard most used because of it can be applied to a great range of enterprises. This system is focused on customer satisfaction and it is based on PDCA, Plan, Do, Check, Act. All these systems are documented ones, so once time goes by the same conclusion is reached: enterprises that have the certificate hung on the wall and that papers are fixed for audits have nothing that give them added value and they self-delusion. Quality management system power is related to the usage of human resources potential to lead enterprise resources efficiently and to make them participate in organization objectives. Naval architect training makes them to be critic with existing models and to try to find alternative ways to be more efficient. To achieve this goal, a precise knowledge of the organization is needed. That is the reason why, after five years in quality related issues in the Organization, in different chores, analyzing our scope and reports of organizations that supervise our operation, I realized that Merchant Marine Directorate could change the way of operation to modernize and be more transparent, efficient and effective. This thesis is about the possibility of implantation of a new service in Merchant Marine Directorate that will make it possible to improve their worldwide competitiveness as Flag State, and that to reorient all services taking into account citizens needs and Organization resources. Citizen’s charters able approachment to organization operation. It gives the following information: which are terms in which service is given, enterprise compromises, ways in which citizen can collaborate to improve them, and etc. Additionally, no quality management system is needed to be implemented. Although we’ll see in chapter three and four that having it is of great help. In chapter six are detailed goals achieved if citizen’s charters are implemented in Merchant Marine Directorate, and in chapter seven conclusions and results are discussed.
Resumo:
Entendemos por inteligencia colectiva una forma de inteligencia que surge de la colaboración y la participación de varios individuos o, siendo más estrictos, varias entidades. En base a esta sencilla definición podemos observar que este concepto es campo de estudio de las más diversas disciplinas como pueden ser la sociología, las tecnologías de la información o la biología, atendiendo cada una de ellas a un tipo de entidades diferentes: seres humanos, elementos de computación o animales. Como elemento común podríamos indicar que la inteligencia colectiva ha tenido como objetivo el ser capaz de fomentar una inteligencia de grupo que supere a la inteligencia individual de las entidades que lo forman a través de mecanismos de coordinación, cooperación, competencia, integración, diferenciación, etc. Sin embargo, aunque históricamente la inteligencia colectiva se ha podido desarrollar de forma paralela e independiente en las distintas disciplinas que la tratan, en la actualidad, los avances en las tecnologías de la información han provocado que esto ya no sea suficiente. Hoy en día seres humanos y máquinas a través de todo tipo de redes de comunicación e interfaces, conviven en un entorno en el que la inteligencia colectiva ha cobrado una nueva dimensión: ya no sólo puede intentar obtener un comportamiento superior al de sus entidades constituyentes sino que ahora, además, estas inteligencias individuales son completamente diferentes unas de otras y aparece por lo tanto el doble reto de ser capaces de gestionar esta gran heterogeneidad y al mismo tiempo ser capaces de obtener comportamientos aún más inteligentes gracias a las sinergias que los distintos tipos de inteligencias pueden generar. Dentro de las áreas de trabajo de la inteligencia colectiva existen varios campos abiertos en los que siempre se intenta obtener unas prestaciones superiores a las de los individuos. Por ejemplo: consciencia colectiva, memoria colectiva o sabiduría colectiva. Entre todos estos campos nosotros nos centraremos en uno que tiene presencia en la práctica totalidad de posibles comportamientos inteligentes: la toma de decisiones. El campo de estudio de la toma de decisiones es realmente amplio y dentro del mismo la evolución ha sido completamente paralela a la que citábamos anteriormente en referencia a la inteligencia colectiva. En primer lugar se centró en el individuo como entidad decisoria para posteriormente desarrollarse desde un punto de vista social, institucional, etc. La primera fase dentro del estudio de la toma de decisiones se basó en la utilización de paradigmas muy sencillos: análisis de ventajas e inconvenientes, priorización basada en la maximización de algún parámetro del resultado, capacidad para satisfacer los requisitos de forma mínima por parte de las alternativas, consultas a expertos o entidades autorizadas o incluso el azar. Sin embargo, al igual que el paso del estudio del individuo al grupo supone una nueva dimensión dentro la inteligencia colectiva la toma de decisiones colectiva supone un nuevo reto en todas las disciplinas relacionadas. Además, dentro de la decisión colectiva aparecen dos nuevos frentes: los sistemas de decisión centralizados y descentralizados. En el presente proyecto de tesis nos centraremos en este segundo, que es el que supone una mayor atractivo tanto por las posibilidades de generar nuevo conocimiento y trabajar con problemas abiertos actualmente así como en lo que respecta a la aplicabilidad de los resultados que puedan obtenerse. Ya por último, dentro del campo de los sistemas de decisión descentralizados existen varios mecanismos fundamentales que dan lugar a distintas aproximaciones a la problemática propia de este campo. Por ejemplo el liderazgo, la imitación, la prescripción o el miedo. Nosotros nos centraremos en uno de los más multidisciplinares y con mayor capacidad de aplicación en todo tipo de disciplinas y que, históricamente, ha demostrado que puede dar lugar a prestaciones muy superiores a otros tipos de mecanismos de decisión descentralizados: la confianza y la reputación. Resumidamente podríamos indicar que confianza es la creencia por parte de una entidad que otra va a realizar una determinada actividad de una forma concreta. En principio es algo subjetivo, ya que la confianza de dos entidades diferentes sobre una tercera no tiene porqué ser la misma. Por otro lado, la reputación es la idea colectiva (o evaluación social) que distintas entidades de un sistema tiene sobre otra entidad del mismo en lo que respecta a un determinado criterio. Es por tanto una información de carácter colectivo pero única dentro de un sistema, no asociada a cada una de las entidades del sistema sino por igual a todas ellas. En estas dos sencillas definiciones se basan la inmensa mayoría de sistemas colectivos. De hecho muchas disertaciones indican que ningún tipo de organización podría ser viable de no ser por la existencia y la utilización de los conceptos de confianza y reputación. A partir de ahora, a todo sistema que utilice de una u otra forma estos conceptos lo denominaremos como sistema de confianza y reputación (o TRS, Trust and Reputation System). Sin embargo, aunque los TRS son uno de los aspectos de nuestras vidas más cotidianos y con un mayor campo de aplicación, el conocimiento que existe actualmente sobre ellos no podría ser más disperso. Existen un gran número de trabajos científicos en todo tipo de áreas de conocimiento: filosofía, psicología, sociología, economía, política, tecnologías de la información, etc. Pero el principal problema es que no existe una visión completa de la confianza y reputación en su sentido más amplio. Cada disciplina focaliza sus estudios en unos aspectos u otros dentro de los TRS, pero ninguna de ellas trata de explotar el conocimiento generado en el resto para mejorar sus prestaciones en su campo de aplicación concreto. Aspectos muy detallados en algunas áreas de conocimiento son completamente obviados por otras, o incluso aspectos tratados por distintas disciplinas, al ser estudiados desde distintos puntos de vista arrojan resultados complementarios que, sin embargo, no son aprovechados fuera de dichas áreas de conocimiento. Esto nos lleva a una dispersión de conocimiento muy elevada y a una falta de reutilización de metodologías, políticas de actuación y técnicas de una disciplina a otra. Debido su vital importancia, esta alta dispersión de conocimiento se trata de uno de los principales problemas que se pretenden resolver con el presente trabajo de tesis. Por otro lado, cuando se trabaja con TRS, todos los aspectos relacionados con la seguridad están muy presentes ya que muy este es un tema vital dentro del campo de la toma de decisiones. Además también es habitual que los TRS se utilicen para desempeñar responsabilidades que aportan algún tipo de funcionalidad relacionada con el mundo de la seguridad. Por último no podemos olvidar que el acto de confiar está indefectiblemente unido al de delegar una determinada responsabilidad, y que al tratar estos conceptos siempre aparece la idea de riesgo, riesgo de que las expectativas generadas por el acto de la delegación no se cumplan o se cumplan de forma diferente. Podemos ver por lo tanto que cualquier sistema que utiliza la confianza para mejorar o posibilitar su funcionamiento, por su propia naturaleza, es especialmente vulnerable si las premisas en las que se basa son atacadas. En este sentido podemos comprobar (tal y como analizaremos en más detalle a lo largo del presente documento) que las aproximaciones que realizan las distintas disciplinas que tratan la violación de los sistemas de confianza es de lo más variado. únicamente dentro del área de las tecnologías de la información se ha intentado utilizar alguno de los enfoques de otras disciplinas de cara a afrontar problemas relacionados con la seguridad de TRS. Sin embargo se trata de una aproximación incompleta y, normalmente, realizada para cumplir requisitos de aplicaciones concretas y no con la idea de afianzar una base de conocimiento más general y reutilizable en otros entornos. Con todo esto en cuenta, podemos resumir contribuciones del presente trabajo de tesis en las siguientes. • La realización de un completo análisis del estado del arte dentro del mundo de la confianza y la reputación que nos permite comparar las ventajas e inconvenientes de las diferentes aproximación que se realizan a estos conceptos en distintas áreas de conocimiento. • La definición de una arquitectura de referencia para TRS que contempla todas las entidades y procesos que intervienen en este tipo de sistemas. • La definición de un marco de referencia para analizar la seguridad de TRS. Esto implica tanto identificar los principales activos de un TRS en lo que respecta a la seguridad, así como el crear una tipología de posibles ataques y contramedidas en base a dichos activos. • La propuesta de una metodología para el análisis, el diseño, el aseguramiento y el despliegue de un TRS en entornos reales. Adicionalmente se exponen los principales tipos de aplicaciones que pueden obtenerse de los TRS y los medios para maximizar sus prestaciones en cada una de ellas. • La generación de un software que permite simular cualquier tipo de TRS en base a la arquitectura propuesta previamente. Esto permite evaluar las prestaciones de un TRS bajo una determinada configuración en un entorno controlado previamente a su despliegue en un entorno real. Igualmente es de gran utilidad para evaluar la resistencia a distintos tipos de ataques o mal-funcionamientos del sistema. Además de las contribuciones realizadas directamente en el campo de los TRS, hemos realizado aportaciones originales a distintas áreas de conocimiento gracias a la aplicación de las metodologías de análisis y diseño citadas con anterioridad. • Detección de anomalías térmicas en Data Centers. Hemos implementado con éxito un sistema de deteción de anomalías térmicas basado en un TRS. Comparamos la detección de prestaciones de algoritmos de tipo Self-Organized Maps (SOM) y Growing Neural Gas (GNG). Mostramos como SOM ofrece mejores resultados para anomalías en los sistemas de refrigeración de la sala mientras que GNG es una opción más adecuada debido a sus tasas de detección y aislamiento para casos de anomalías provocadas por una carga de trabajo excesiva. • Mejora de las prestaciones de recolección de un sistema basado en swarm computing y odometría social. Gracias a la implementación de un TRS conseguimos mejorar las capacidades de coordinación de una red de robots autónomos distribuidos. La principal contribución reside en el análisis y la validación de las mejoras increméntales que pueden conseguirse con la utilización apropiada de la información existente en el sistema y que puede ser relevante desde el punto de vista de un TRS, y con la implementación de algoritmos de cálculo de confianza basados en dicha información. • Mejora de la seguridad de Wireless Mesh Networks contra ataques contra la integridad, la confidencialidad o la disponibilidad de los datos y / o comunicaciones soportadas por dichas redes. • Mejora de la seguridad de Wireless Sensor Networks contra ataques avanzamos, como insider attacks, ataques desconocidos, etc. Gracias a las metodologías presentadas implementamos contramedidas contra este tipo de ataques en entornos complejos. En base a los experimentos realizados, hemos demostrado que nuestra aproximación es capaz de detectar y confinar varios tipos de ataques que afectan a los protocoles esenciales de la red. La propuesta ofrece unas velocidades de detección muy altas así como demuestra que la inclusión de estos mecanismos de actuación temprana incrementa significativamente el esfuerzo que un atacante tiene que introducir para comprometer la red. Finalmente podríamos concluir que el presente trabajo de tesis supone la generación de un conocimiento útil y aplicable a entornos reales, que nos permite la maximización de las prestaciones resultantes de la utilización de TRS en cualquier tipo de campo de aplicación. De esta forma cubrimos la principal carencia existente actualmente en este campo, que es la falta de una base de conocimiento común y agregada y la inexistencia de una metodología para el desarrollo de TRS que nos permita analizar, diseñar, asegurar y desplegar TRS de una forma sistemática y no artesanal y ad-hoc como se hace en la actualidad. ABSTRACT By collective intelligence we understand a form of intelligence that emerges from the collaboration and competition of many individuals, or strictly speaking, many entities. Based on this simple definition, we can see how this concept is the field of study of a wide range of disciplines, such as sociology, information science or biology, each of them focused in different kinds of entities: human beings, computational resources, or animals. As a common factor, we can point that collective intelligence has always had the goal of being able of promoting a group intelligence that overcomes the individual intelligence of the basic entities that constitute it. This can be accomplished through different mechanisms such as coordination, cooperation, competence, integration, differentiation, etc. Collective intelligence has historically been developed in a parallel and independent way among the different disciplines that deal with it. However, this is not enough anymore due to the advances in information technologies. Nowadays, human beings and machines coexist in environments where collective intelligence has taken a new dimension: we yet have to achieve a better collective behavior than the individual one, but now we also have to deal with completely different kinds of individual intelligences. Therefore, we have a double goal: being able to deal with this heterogeneity and being able to get even more intelligent behaviors thanks to the synergies that the different kinds of intelligence can generate. Within the areas of collective intelligence there are several open topics where they always try to get better performances from groups than from the individuals. For example: collective consciousness, collective memory, or collective wisdom. Among all these topics we will focus on collective decision making, that has influence in most of the collective intelligent behaviors. The field of study of decision making is really wide, and its evolution has been completely parallel to the aforementioned collective intelligence. Firstly, it was focused on the individual as the main decision-making entity, but later it became involved in studying social and institutional groups as basic decision-making entities. The first studies within the decision-making discipline were based on simple paradigms, such as pros and cons analysis, criteria prioritization, fulfillment, following orders, or even chance. However, in the same way that studying the community instead of the individual meant a paradigm shift within collective intelligence, collective decision-making means a new challenge for all the related disciplines. Besides, two new main topics come up when dealing with collective decision-making: centralized and decentralized decision-making systems. In this thesis project we focus in the second one, because it is the most interesting based on the opportunities to generate new knowledge and deal with open issues in this area, as well as these results can be put into practice in a wider set of real-life environments. Finally, within the decentralized collective decision-making systems discipline, there are several basic mechanisms that lead to different approaches to the specific problems of this field, for example: leadership, imitation, prescription, or fear. We will focus on trust and reputation. They are one of the most multidisciplinary concepts and with more potential for applying them in every kind of environments. Besides, they have historically shown that they can generate better performance than other decentralized decision-making mechanisms. Shortly, we say trust is the belief of one entity that the outcome of other entities’ actions is going to be in a specific way. It is a subjective concept because the trust of two different entities in another one does not have to be the same. Reputation is the collective idea (or social evaluation) that a group of entities within a system have about another entity based on a specific criterion. Thus, it is a collective concept in its origin. It is important to say that the behavior of most of the collective systems are based on these two simple definitions. In fact, a lot of articles and essays describe how any organization would not be viable if the ideas of trust and reputation did not exist. From now on, we call Trust an Reputation System (TRS) to any kind of system that uses these concepts. Even though TRSs are one of the most common everyday aspects in our lives, the existing knowledge about them could not be more dispersed. There are thousands of scientific works in every field of study related to trust and reputation: philosophy, psychology, sociology, economics, politics, information sciences, etc. But the main issue is that a comprehensive vision of trust and reputation for all these disciplines does not exist. Every discipline focuses its studies on a specific set of topics but none of them tries to take advantage of the knowledge generated in the other disciplines to improve its behavior or performance. Detailed topics in some fields are completely obviated in others, and even though the study of some topics within several disciplines produces complementary results, these results are not used outside the discipline where they were generated. This leads us to a very high knowledge dispersion and to a lack in the reuse of methodologies, policies and techniques among disciplines. Due to its great importance, this high dispersion of trust and reputation knowledge is one of the main problems this thesis contributes to solve. When we work with TRSs, all the aspects related to security are a constant since it is a vital aspect within the decision-making systems. Besides, TRS are often used to perform some responsibilities related to security. Finally, we cannot forget that the act of trusting is invariably attached to the act of delegating a specific responsibility and, when we deal with these concepts, the idea of risk is always present. This refers to the risk of generated expectations not being accomplished or being accomplished in a different way we anticipated. Thus, we can see that any system using trust to improve or enable its behavior, because of its own nature, is especially vulnerable if the premises it is based on are attacked. Related to this topic, we can see that the approaches of the different disciplines that study attacks of trust and reputation are very diverse. Some attempts of using approaches of other disciplines have been made within the information science area of knowledge, but these approaches are usually incomplete, not systematic and oriented to achieve specific requirements of specific applications. They never try to consolidate a common base of knowledge that could be reusable in other context. Based on all these ideas, this work makes the following direct contributions to the field of TRS: • The compilation of the most relevant existing knowledge related to trust and reputation management systems focusing on their advantages and disadvantages. • We define a generic architecture for TRS, identifying the main entities and processes involved. • We define a generic security framework for TRS. We identify the main security assets and propose a complete taxonomy of attacks for TRS. • We propose and validate a methodology to analyze, design, secure and deploy TRS in real-life environments. Additionally we identify the principal kind of applications we can implement with TRS and how TRS can provide a specific functionality. • We develop a software component to validate and optimize the behavior of a TRS in order to achieve a specific functionality or performance. In addition to the contributions made directly to the field of the TRS, we have made original contributions to different areas of knowledge thanks to the application of the analysis, design and security methodologies previously presented: • Detection of thermal anomalies in Data Centers. Thanks to the application of the TRS analysis and design methodologies, we successfully implemented a thermal anomaly detection system based on a TRS.We compare the detection performance of Self-Organized- Maps and Growing Neural Gas algorithms. We show how SOM provides better results for Computer Room Air Conditioning anomaly detection, yielding detection rates of 100%, in training data with malfunctioning sensors. We also show that GNG yields better detection and isolation rates for workload anomaly detection, reducing the false positive rate when compared to SOM. • Improving the performance of a harvesting system based on swarm computing and social odometry. Through the implementation of a TRS, we achieved to improve the ability of coordinating a distributed network of autonomous robots. The main contribution lies in the analysis and validation of the incremental improvements that can be achieved with proper use information that exist in the system and that are relevant for the TRS, and the implementation of the appropriated trust algorithms based on such information. • Improving Wireless Mesh Networks security against attacks against the integrity, confidentiality or availability of data and communications supported by these networks. Thanks to the implementation of a TRS we improved the detection time rate against these kind of attacks and we limited their potential impact over the system. • We improved the security of Wireless Sensor Networks against advanced attacks, such as insider attacks, unknown attacks, etc. Thanks to the TRS analysis and design methodologies previously described, we implemented countermeasures against such attacks in a complex environment. In our experiments we have demonstrated that our system is capable of detecting and confining various attacks that affect the core network protocols. We have also demonstrated that our approach is capable of rapid attack detection. Also, it has been proven that the inclusion of the proposed detection mechanisms significantly increases the effort the attacker has to introduce in order to compromise the network. Finally we can conclude that, to all intents and purposes, this thesis offers a useful and applicable knowledge in real-life environments that allows us to maximize the performance of any system based on a TRS. Thus, we deal with the main deficiency of this discipline: the lack of a common and complete base of knowledge and the lack of a methodology for the development of TRS that allow us to analyze, design, secure and deploy TRS in a systematic way.