953 resultados para Cuentas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La preocupación sobre el cambio climático continúa en aumento. Las crecientes evidencias de sus implicaciones ambientales, sociales y económicas plantean escenarios de regulaciones y concesiones públicas a empresas verdes. Las organizaciones privadas trabajan para incorporar nuevos indicadores de sostenibilidad ambiental que les permitan adelantarse a la casi segura futura legislación. Con este telón de fondo, aparecen dos indicadores de sostenibilidad denominados “Huella Ecológica” y “Huella de Carbono”. La Huella Ecológica mide la superficie biológicamente productiva (incluyendo agua y tierra), necesaria para producir todos los recursos que consume y absorber los desechos que genera una actividad. La Huella de Carbono cuantifica la totalidad de gases de efecto invernadero emitidos por efecto directo e indirecto como consecuencia de una actividad. En este contexto, la industria del transporte en general, y en particular el sector de la aviación, están en el punto de mira, por ser los sectores que más emisiones generan. Otro gran foco de emisiones es la ocurrencia de los incendios forestales que, además, se ha convertido en uno de los mayores problemas ecológicos que sufren nuestros montes debido a su frecuencia y gravedad en las últimas décadas. El presente Proyecto Final de Carrera tiene dos objetivos. En primer lugar la cuantificación e interpretación de la Huella de Carbono y Huella Ecológica de la empresa Hispánica de Aviación S.A. (HASA), empresa que presta servicios con helicópteros, sector para el que no se han encontrado estudios de Huella de Carbono hasta la fecha. En segundo lugar, determinar el radio de acción de los helicópteros en su actuación contra incendios forestales para que las emisiones de Gases de Efecto Invernadero compensen su intervención. Para ello se ha utilizado el Método Compuesto de las Cuentas Contables v.12.4 determinando como unidad funcional de producto el kilómetro recorrido por un helicóptero. Por último se ha empleado la metodología utilizada por el Ministerio de Agricultura, Alimentación y Medio Ambiente para el cálculo de emisiones por los Incendios Forestales a fin de realizar una estimación de lo que supone en este sentido la intervención de los helicópteros de HASA en las labores de extinción. La Huella de Carbono y Huella Ecológica para el año 2012 de HASA es 5.515 t CO2e y 1.344 haG. Destaca el peso del consumo de queroseno, que contribuye con 3.103 t CO2e y 786 haG. De acuerdo a las unidades funcionales consideradas, el helicóptero con matrícula SP-SUT/EC-LUQ es el que más Huella de Carbono presenta (12 Kg CO2e/Km) a diferencia del helicóptero con matrícula SP-SUC que es el que menos Huella de Carbono manifiesta (6 Kg CO2e/Km). Entre las diferentes conclusiones se destaca que la salida de un helicóptero a un incendio en España, siempre va a valorarse como compensada en términos de Huella de Carbono. Es decir, las emisiones que va a evitar su salida (disminución de la superficie quemada), son considerablemente mayores que las que se pueden producir por su puesta en funcionamiento. El presente proyecto se acompaña de una propuesta de acciones que se consideran de gran utilidad tanto para posteriores evaluaciones como para la mejora del posicionamiento ambiental de HASA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neuronal morphology is a key feature in the study of brain circuits, as it is highly related to information processing and functional identification. Neuronal morphology affects the process of integration of inputs from other neurons and determines the neurons which receive the output of the neurons. Different parts of the neurons can operate semi-independently according to the spatial location of the synaptic connections. As a result, there is considerable interest in the analysis of the microanatomy of nervous cells since it constitutes an excellent tool for better understanding cortical function. However, the morphologies, molecular features and electrophysiological properties of neuronal cells are extremely variable. Except for some special cases, this variability makes it hard to find a set of features that unambiguously define a neuronal type. In addition, there are distinct types of neurons in particular regions of the brain. This morphological variability makes the analysis and modeling of neuronal morphology a challenge. Uncertainty is a key feature in many complex real-world problems. Probability theory provides a framework for modeling and reasoning with uncertainty. Probabilistic graphical models combine statistical theory and graph theory to provide a tool for managing domains with uncertainty. In particular, we focus on Bayesian networks, the most commonly used probabilistic graphical model. In this dissertation, we design new methods for learning Bayesian networks and apply them to the problem of modeling and analyzing morphological data from neurons. The morphology of a neuron can be quantified using a number of measurements, e.g., the length of the dendrites and the axon, the number of bifurcations, the direction of the dendrites and the axon, etc. These measurements can be modeled as discrete or continuous data. The continuous data can be linear (e.g., the length or the width of a dendrite) or directional (e.g., the direction of the axon). These data may follow complex probability distributions and may not fit any known parametric distribution. Modeling this kind of problems using hybrid Bayesian networks with discrete, linear and directional variables poses a number of challenges regarding learning from data, inference, etc. In this dissertation, we propose a method for modeling and simulating basal dendritic trees from pyramidal neurons using Bayesian networks to capture the interactions between the variables in the problem domain. A complete set of variables is measured from the dendrites, and a learning algorithm is applied to find the structure and estimate the parameters of the probability distributions included in the Bayesian networks. Then, a simulation algorithm is used to build the virtual dendrites by sampling values from the Bayesian networks, and a thorough evaluation is performed to show the model’s ability to generate realistic dendrites. In this first approach, the variables are discretized so that discrete Bayesian networks can be learned and simulated. Then, we address the problem of learning hybrid Bayesian networks with different kinds of variables. Mixtures of polynomials have been proposed as a way of representing probability densities in hybrid Bayesian networks. We present a method for learning mixtures of polynomials approximations of one-dimensional, multidimensional and conditional probability densities from data. The method is based on basis spline interpolation, where a density is approximated as a linear combination of basis splines. The proposed algorithms are evaluated using artificial datasets. We also use the proposed methods as a non-parametric density estimation technique in Bayesian network classifiers. Next, we address the problem of including directional data in Bayesian networks. These data have some special properties that rule out the use of classical statistics. Therefore, different distributions and statistics, such as the univariate von Mises and the multivariate von Mises–Fisher distributions, should be used to deal with this kind of information. In particular, we extend the naive Bayes classifier to the case where the conditional probability distributions of the predictive variables given the class follow either of these distributions. We consider the simple scenario, where only directional predictive variables are used, and the hybrid case, where discrete, Gaussian and directional distributions are mixed. The classifier decision functions and their decision surfaces are studied at length. Artificial examples are used to illustrate the behavior of the classifiers. The proposed classifiers are empirically evaluated over real datasets. We also study the problem of interneuron classification. An extensive group of experts is asked to classify a set of neurons according to their most prominent anatomical features. A web application is developed to retrieve the experts’ classifications. We compute agreement measures to analyze the consensus between the experts when classifying the neurons. Using Bayesian networks and clustering algorithms on the resulting data, we investigate the suitability of the anatomical terms and neuron types commonly used in the literature. Additionally, we apply supervised learning approaches to automatically classify interneurons using the values of their morphological measurements. Then, a methodology for building a model which captures the opinions of all the experts is presented. First, one Bayesian network is learned for each expert, and we propose an algorithm for clustering Bayesian networks corresponding to experts with similar behaviors. Then, a Bayesian network which represents the opinions of each group of experts is induced. Finally, a consensus Bayesian multinet which models the opinions of the whole group of experts is built. A thorough analysis of the consensus model identifies different behaviors between the experts when classifying the interneurons in the experiment. A set of characterizing morphological traits for the neuronal types can be defined by performing inference in the Bayesian multinet. These findings are used to validate the model and to gain some insights into neuron morphology. Finally, we study a classification problem where the true class label of the training instances is not known. Instead, a set of class labels is available for each instance. This is inspired by the neuron classification problem, where a group of experts is asked to individually provide a class label for each instance. We propose a novel approach for learning Bayesian networks using count vectors which represent the number of experts who selected each class label for each instance. These Bayesian networks are evaluated using artificial datasets from supervised learning problems. Resumen La morfología neuronal es una característica clave en el estudio de los circuitos cerebrales, ya que está altamente relacionada con el procesado de información y con los roles funcionales. La morfología neuronal afecta al proceso de integración de las señales de entrada y determina las neuronas que reciben las salidas de otras neuronas. Las diferentes partes de la neurona pueden operar de forma semi-independiente de acuerdo a la localización espacial de las conexiones sinápticas. Por tanto, existe un interés considerable en el análisis de la microanatomía de las células nerviosas, ya que constituye una excelente herramienta para comprender mejor el funcionamiento de la corteza cerebral. Sin embargo, las propiedades morfológicas, moleculares y electrofisiológicas de las células neuronales son extremadamente variables. Excepto en algunos casos especiales, esta variabilidad morfológica dificulta la definición de un conjunto de características que distingan claramente un tipo neuronal. Además, existen diferentes tipos de neuronas en regiones particulares del cerebro. La variabilidad neuronal hace que el análisis y el modelado de la morfología neuronal sean un importante reto científico. La incertidumbre es una propiedad clave en muchos problemas reales. La teoría de la probabilidad proporciona un marco para modelar y razonar bajo incertidumbre. Los modelos gráficos probabilísticos combinan la teoría estadística y la teoría de grafos con el objetivo de proporcionar una herramienta con la que trabajar bajo incertidumbre. En particular, nos centraremos en las redes bayesianas, el modelo más utilizado dentro de los modelos gráficos probabilísticos. En esta tesis hemos diseñado nuevos métodos para aprender redes bayesianas, inspirados por y aplicados al problema del modelado y análisis de datos morfológicos de neuronas. La morfología de una neurona puede ser cuantificada usando una serie de medidas, por ejemplo, la longitud de las dendritas y el axón, el número de bifurcaciones, la dirección de las dendritas y el axón, etc. Estas medidas pueden ser modeladas como datos continuos o discretos. A su vez, los datos continuos pueden ser lineales (por ejemplo, la longitud o la anchura de una dendrita) o direccionales (por ejemplo, la dirección del axón). Estos datos pueden llegar a seguir distribuciones de probabilidad muy complejas y pueden no ajustarse a ninguna distribución paramétrica conocida. El modelado de este tipo de problemas con redes bayesianas híbridas incluyendo variables discretas, lineales y direccionales presenta una serie de retos en relación al aprendizaje a partir de datos, la inferencia, etc. En esta tesis se propone un método para modelar y simular árboles dendríticos basales de neuronas piramidales usando redes bayesianas para capturar las interacciones entre las variables del problema. Para ello, se mide un amplio conjunto de variables de las dendritas y se aplica un algoritmo de aprendizaje con el que se aprende la estructura y se estiman los parámetros de las distribuciones de probabilidad que constituyen las redes bayesianas. Después, se usa un algoritmo de simulación para construir dendritas virtuales mediante el muestreo de valores de las redes bayesianas. Finalmente, se lleva a cabo una profunda evaluaci ón para verificar la capacidad del modelo a la hora de generar dendritas realistas. En esta primera aproximación, las variables fueron discretizadas para poder aprender y muestrear las redes bayesianas. A continuación, se aborda el problema del aprendizaje de redes bayesianas con diferentes tipos de variables. Las mixturas de polinomios constituyen un método para representar densidades de probabilidad en redes bayesianas híbridas. Presentamos un método para aprender aproximaciones de densidades unidimensionales, multidimensionales y condicionales a partir de datos utilizando mixturas de polinomios. El método se basa en interpolación con splines, que aproxima una densidad como una combinación lineal de splines. Los algoritmos propuestos se evalúan utilizando bases de datos artificiales. Además, las mixturas de polinomios son utilizadas como un método no paramétrico de estimación de densidades para clasificadores basados en redes bayesianas. Después, se estudia el problema de incluir información direccional en redes bayesianas. Este tipo de datos presenta una serie de características especiales que impiden el uso de las técnicas estadísticas clásicas. Por ello, para manejar este tipo de información se deben usar estadísticos y distribuciones de probabilidad específicos, como la distribución univariante von Mises y la distribución multivariante von Mises–Fisher. En concreto, en esta tesis extendemos el clasificador naive Bayes al caso en el que las distribuciones de probabilidad condicionada de las variables predictoras dada la clase siguen alguna de estas distribuciones. Se estudia el caso base, en el que sólo se utilizan variables direccionales, y el caso híbrido, en el que variables discretas, lineales y direccionales aparecen mezcladas. También se estudian los clasificadores desde un punto de vista teórico, derivando sus funciones de decisión y las superficies de decisión asociadas. El comportamiento de los clasificadores se ilustra utilizando bases de datos artificiales. Además, los clasificadores son evaluados empíricamente utilizando bases de datos reales. También se estudia el problema de la clasificación de interneuronas. Desarrollamos una aplicación web que permite a un grupo de expertos clasificar un conjunto de neuronas de acuerdo a sus características morfológicas más destacadas. Se utilizan medidas de concordancia para analizar el consenso entre los expertos a la hora de clasificar las neuronas. Se investiga la idoneidad de los términos anatómicos y de los tipos neuronales utilizados frecuentemente en la literatura a través del análisis de redes bayesianas y la aplicación de algoritmos de clustering. Además, se aplican técnicas de aprendizaje supervisado con el objetivo de clasificar de forma automática las interneuronas a partir de sus valores morfológicos. A continuación, se presenta una metodología para construir un modelo que captura las opiniones de todos los expertos. Primero, se genera una red bayesiana para cada experto y se propone un algoritmo para agrupar las redes bayesianas que se corresponden con expertos con comportamientos similares. Después, se induce una red bayesiana que modela la opinión de cada grupo de expertos. Por último, se construye una multired bayesiana que modela las opiniones del conjunto completo de expertos. El análisis del modelo consensuado permite identificar diferentes comportamientos entre los expertos a la hora de clasificar las neuronas. Además, permite extraer un conjunto de características morfológicas relevantes para cada uno de los tipos neuronales mediante inferencia con la multired bayesiana. Estos descubrimientos se utilizan para validar el modelo y constituyen información relevante acerca de la morfología neuronal. Por último, se estudia un problema de clasificación en el que la etiqueta de clase de los datos de entrenamiento es incierta. En cambio, disponemos de un conjunto de etiquetas para cada instancia. Este problema está inspirado en el problema de la clasificación de neuronas, en el que un grupo de expertos proporciona una etiqueta de clase para cada instancia de manera individual. Se propone un método para aprender redes bayesianas utilizando vectores de cuentas, que representan el número de expertos que seleccionan cada etiqueta de clase para cada instancia. Estas redes bayesianas se evalúan utilizando bases de datos artificiales de problemas de aprendizaje supervisado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, las técnicas de crioconservación poseen una importancia creciente para el almacenamiento a largo plazo de germoplasma vegetal. En las dos últimas décadas, estos métodos experimentaron un gran desarrollo y se han elaborado protocolos adecuados a diferentes sistemas vegetales, utilizando diversas estrategias como la vitrificación, la encapsulación-desecación con cuentas de alginato y el método de “droplet”-vitrificación. La presente tesis doctoral tiene como objetivo aumentar el conocimiento sobre los procesos implicados en los distintos pasos de un protocolo de crioconservación, en relación con el estado del agua presente en los tejidos y sus cambios, abordado mediante diversas técnicas biofísicas, principalmente calorimetría diferencial de barrido (DSC) y microscopía electrónica de barrido a baja temperatura (crio-SEM). En un primer estudio sobre estos métodos de crioconservación, se describen las fases de enfriamiento hasta la temperatura del nitrógeno líquido y de calentamiento hasta temperatura ambiente, al final del periodo de almacenamiento, que son críticas para la supervivencia del material crioconservado. Tanto enfriamiento como calentamiento deben ser realizados lo más rápidamente posible pues, aunque los bajos contenidos en agua logrados en etapas previas de los protocolos reducen significativamente las probabilidades de formación de hielo, éstas no son del todo nulas. En ese contexto, se analiza también la influencia de las velocidades de enfriamiento y calentamiento de las soluciones de crioconservación de plantas en sus parámetros termofísicos referente a la vitrificación, en relación su composición y concentración de compuestos. Estas soluciones son empleadas en la mayor parte de los protocolos actualmente utilizados para la crioconservación de material vegetal. Además, se estudia la influencia de otros factores que pueden determinar la estabilidad del material vitrificado, tales como en envejecimiento del vidrio. Se ha llevado a cabo una investigación experimental en el empleo del crio-SEM como una herramienta para visualizar el estado vítreo de las células y tejidos sometidos a los procesos de crioconservación. Se ha comparado con la más conocida técnica de calorimetría diferencial de barrido, obteniéndose resultados muy concordantes y complementarios. Se exploró también por estas técnicas el efecto sobre tejidos vegetales de la adaptación a bajas temperaturas y de la deshidratación inducida por los diferentes tratamientos utilizados en los protocolos. Este estudio permite observar la evolución biofísica de los sistemas en el proceso de crioconservación. Por último, se estudió la aplicación de películas de quitosano en las cuentas de alginato utilizadas en el protocolo de encapsulación. No se observaron cambios significativos en su comportamiento frente a la deshidratación, en sus parámetros calorimétricos y en la superficie de las cuentas. Su aplicación puede conferir propiedades adicionales prometedoras. ABSTRACT Currently, cryopreservation techniques have a growing importance for long term plant germplasm storage. These methods have undergone great progress during the last two decades, and adequate protocols for different plant systems have been developed, making use of diverse strategies, such as vitrification, encapsulation-dehydration with alginate beads and the dropletvitrification method. This PhD thesis has the goal of increasing the knowledge on the processes underlying the different steps of cryopreservation protocols, in relation with the state of water on tissues and its changes, approached through diverse biophysical techniques, especially differential scanning calorimetry (DSC) and low-temperature scanning electron microscopy (cryo-SEM). The processes of cooling to liquid nitrogen temperature and warming to room temperature, at the end of the storage period, critical for the survival of the cryopreserved material, are described in a first study on these cryopreservation methods. Both cooling and warming must be carried out as quickly as possible because, although the low water content achieved during previous protocol steps significantly reduces ice formation probability, it does not completely disappear. Within this context, the influence of plant vitrification solutions cooling and warming rate on their vitrification related thermophysical parameters is also analyzed, in relation to its composition and component concentration. These solutions are used in most of the currently employed plant material cryopreservation protocols. Additionally, the influence of other factors determining the stability of vitrified material is studied, such as glass aging. An experimental research work has been carried out on the use of cryo-SEM as a tool for visualizing the glassy state in cells and tissues, submitted to cryopreservation processes. It has been compared with the better known differential scanning calorimetry technique, and results in good agreement and complementary have been obtained. The effect on plant tissues of adaptation to low temperature and of the dehydration induced by the different treatments used in the protocols was explored also by these techniques. This study allows observation of the system biophysical evolution in the cryopreservation process. Lastly, the potential use of an additional chitosan film over the alginate beads used in encapsulation protocols was examined. No significant changes could be observed in its dehydration and calorimetric behavior, as well as in its surface aspect; its application for conferring additional properties to gel beads is promising.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como considero que, históricamente, la tecnología forma parte esencial de la cultura humana, mi interés por los cambios tecnológicos siempre ha incluido su lado humano, es decir, la evaluación de su convivencialidad y en forma destacada la de sus efectos e impactos sociales o,dicho en otras palabras, de las transformaciones sociales que provocan la aplicación de la tecnología y sus sucesivos cambios, que, a fin de cuentas, son -ahora habría que decir "eran"- sus finalidades básicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo describe una nueva técnica que permite combinar la información de dos sistemas fonotácticos distintos con el objetivo de mejorar los resultados de un sistema de reconocimiento automático de idioma. El primer sistema se basa en la creación de cuentas de posteriorgramas utilizadas para la generación de i-vectores, y el segundo es una variante del primero que tiene en cuenta los n-gramas más discriminativos en función de su ocurrencia en un idioma frente a todos los demás. La técnica propuesta permite obtener una mejora relativa de 8.63% en Cavg sobre los datos de evaluación utilizados para la competición ALBAYZIN 2012 LRE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los derechos humanos al agua y al saneamiento están íntimamente relacionados con otros derechos esenciales para la vida, como la alimentación o la salud. Su reconocimiento como derechos humanos en 2010 marca un hito importante en el respeto, protección y realización de estos derechos, que se encuentran seriamente vulnerados para una mayoría de población más vulnerable y empobrecida, sobre todo en el ámbito rural. Mucho camino queda aún para conseguir no sólo la disponibilidad de agua y saneamiento, sino su accesibilidad física y asequibilidad económica, calidad, participación, no discriminación y rendición de cuentas. Este artículo pretende aclarar los conceptos básicos relacionados con este derecho, y las implicaciones que su reconocimiento tiene para los titulares de derechos y de obligaciones, entre los que se encuentran los Estados, además de operadores privados y otros actores con responsabilidades claras en la realización del derecho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la simulación dinámica de tethers se usan "bead models" que discretizan el cable mediante "cuentas" distribuidas en toda su longitud y cuya evolución temporal se aborda numéricamente. Dependiendo de la precisión deseada, el número de partículas oscila, típicamente, entre 5 y 50. En ocasiones la simulación se extiende sobre tiempos largos (varios años). La complejidad de las interacciones del cable con el medio espacial exige optimizar, en tiempo y precisión, los propagadores que constituyen el núcleo central del proceso. El "método de perturbaciones especiales" objeto de este artículo conjuga sencillez de programación, rapidez y precisión, y permite propagar la órbita de cualquier partícula material. Describe la evolución de ciertos "elementos orbitales", constantes del problema "no perturbado}"que, en el "perturbado", evolucionan en la escala de tiempos impuesta por la perturbación. Puede usarse con cualquier tipo de órbita, está libre de singularidades asociadas a inclinación y/o excentricidad pequeñas, y el uso de parámetros de Euler le confiere robustez.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Podemos definir la sociedad como un sistema complejo que emerge de la cooperación y coordinación de billones de individuos y centenares de países. En este sentido no vivimos en una isla sino que estamos integrados en redes sociales que influyen en nuestro comportamiento. En esta tesis doctoral, presentamos un modelo analítico y una serie de estudios empíricos en los que analizamos distintos procesos sociales dinámicos desde una perspectiva de la teoría de redes complejas. En primer lugar, introducimos un modelo para explorar el impacto que las redes sociales en las que vivimos inmersos tienen en la actividad económica que transcurre sobre ellas, y mas concretamente en hasta qué punto la estructura de estas redes puede limitar la meritocracia de una sociedad. Como concepto contrario a meritocracia, en esta tesis, introducimos el término topocracia. Definimos un sistema como topocrático cuando la influencia o el poder y los ingresos de los individuos vienen principalmente determinados por la posición que ocupan en la red. Nuestro modelo es perfectamente meritocrático para redes completamente conectadas (todos los nodos están enlazados con el resto de nodos). Sin embargo nuestro modelo predice una transición hacia la topocracia a medida que disminuye la densidad de la red, siendo las redes poco densascomo las de la sociedad- topocráticas. En este modelo, los individuos por un lado producen y venden contenidos, pero por otro lado también distribuyen los contenidos producidos por otros individuos mediando entre comprador y vendedor. La producción y distribución de contenidos definen dos medios por los que los individuos reciben ingresos. El primero de ellos es meritocrático, ya que los individuos ingresan de acuerdo a lo que producen. Por el contrario el segundo es topocrático, ya que los individuos son compensados de acuerdo al número de cadenas mas cortas de la red que pasan a través de ellos. En esta tesis resolvemos el modelo computacional y analíticamente. Los resultados indican que un sistema es meritocrático solamente si la conectividad media de los individuos es mayor que una raíz del número de individuos que hay en el sistema. Por tanto, a la luz de nuestros resultados la estructura de la red social puede representar una limitación para la meritocracia de una sociedad. En la segunda parte de esta tesis se presentan una serie de estudios empíricos en los que se analizan datos extraídos de la red social Twitter para caracterizar y modelar el comportamiento humano. En particular, nos centramos en analizar conversaciones políticas, como las que tienen lugar durante campañas electorales. Nuestros resultados indican que la atención colectiva está distribuida de una forma muy heterogénea, con una minoría de cuentas extremadamente influyente. Además, la capacidad de los individuos para diseminar información en Twitter está limitada por la estructura y la posición que ocupan en la red de seguidores. Por tanto, de acuerdo a nuestras observaciones las redes sociales de Internet no posibilitan que la mayoría sea escuchada por la mayoría. De hecho, nuestros resultados implican que Twitter es topocrático, ya que únicamente una minoría de cuentas ubicadas en posiciones privilegiadas en la red de seguidores consiguen que sus mensajes se expandan por toda la red social. En conversaciones políticas, esta minoría de cuentas influyentes se compone principalmente de políticos y medios de comunicación. Los políticos son los mas mencionados ya que la gente les dirige y se refiere a ellos en sus tweets. Mientras que los medios de comunicación son las fuentes desde las que la gente propaga información. En un mundo en el que los datos personales quedan registrados y son cada día mas abundantes y precisos, los resultados del modelo presentado en esta tesis pueden ser usados para fomentar medidas que promuevan la meritocracia. Además, los resultados de los estudios empíricos sobre Twitter que se presentan en la segunda parte de esta tesis son de vital importancia para entender la nueva "sociedad digital" que emerge. En concreto hemos presentado resultados relevantes que caracterizan el comportamiento humano en Internet y que pueden ser usados para crear futuros modelos. Abstract Society can be defined as a complex system that emerges from the cooperation and coordination of billions of individuals and hundreds of countries. Thus, we do not live in social vacuum and the social networks in which we are embedded inevitably shapes our behavior. Here, we present an analytical model and several empirical studies in which we analyze dynamical social systems through a network science perspective. First, we introduce a model to explore how the structure of the social networks underlying society can limit the meritocracy of the economies. Conversely to meritocracy, in this work we introduce the term topocracy. We say that a system is topocratic if the compensation and power available to an individual is determined primarily by her position in a network. Our model is perfectly meritocratic for fully connected networks but becomes topocratic for sparse networks-like the ones in society. In the model, individuals produce and sell content, but also distribute the content produced by others when they belong to the shortest path connecting a buyer and a seller. The production and distribution of content defines two channels of compensation: a meritocratic channel, where individuals are compensated for the content they produce, and a topocratic channel, where individual compensation is based on the number of shortest paths that go through them in the network. We solve the model analytically and show that the distribution of payoffs is meritocratic only if the average degree of the nodes is larger than a root of the total number of nodes. Hence, in the light of our model, the sparsity and structure of networks represents a fundamental constraint to the meritocracy of societies. Next, we present several empirical studies that use data gathered from Twitter to analyze online human behavioral patterns. In particular, we focus on political conversations such as electoral campaigns. We found that the collective attention is highly heterogeneously distributed, as there is a minority of extremely influential accounts. In fact, the ability of individuals to propagate messages or ideas through the platform is constrained by the structure of the follower network underlying the social media and the position they occupy on it. Hence, although people have argued that social media can allow more voices to be heard, our results suggest that Twitter is highly topocratic, as only the minority of well positioned users are widely heard. This minority of influential accounts belong mostly to politicians and traditional media. Politicians tend to be the most mentioned, while media are the sources of information from which people propagate messages. We also propose a methodology to study and measure the emergence of political polarization from social interactions. To this end, we first propose a model to estimate opinions in which a minority of influential individuals propagate their opinions through a social network. The result of the model is an opinion probability density function. Next, we propose an index to quantify the extent to which the resulting distribution is polarized. Finally, we illustrate our methodology by applying it to Twitter data. In a world where personal data is increasingly available, the results of the analytical model introduced in this work can be used to enhance meritocracy and promote policies that help to build more meritocratic societies. Moreover, the results obtained in the latter part, where we have analyzed Twitter, are key to understand the new data-driven society that is emerging. In particular, we have presented relevant information that can be used to benchmark future models for online communication systems or can be used as empirical rules characterizing our online behavior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

habilidades de comprensión y resolución de problemas. Tanto es así que se puede afirmar con rotundidad que no existe el método perfecto para cada una de las etapas de desarrollo y tampoco existe el modelo de ciclo de vida perfecto: cada nuevo problema que se plantea es diferente a los anteriores en algún aspecto y esto hace que técnicas que funcionaron en proyectos anteriores fracasen en los proyectos nuevos. Por ello actualmente se realiza un planteamiento integrador que pretende utilizar en cada caso las técnicas, métodos y herramientas más acordes con las características del problema planteado al ingeniero. Bajo este punto de vista se plantean nuevos problemas. En primer lugar está la selección de enfoques de desarrollo. Si no existe el mejor enfoque, ¿cómo se hace para elegir el más adecuado de entre el conjunto de los existentes? Un segundo problema estriba en la relación entre las etapas de análisis y diseño. En este sentido existen dos grandes riesgos. Por un lado, se puede hacer un análisis del problema demasiado superficial, con lo que se produce una excesiva distancia entre el análisis y el diseño que muchas veces imposibilita el paso de uno a otro. Por otro lado, se puede optar por un análisis en términos del diseño que provoca que no cumpla su objetivo de centrarse en el problema, sino que se convierte en una primera versión de la solución, lo que se conoce como diseño preliminar. Como consecuencia de lo anterior surge el dilema del análisis, que puede plantearse como sigue: para cada problema planteado hay que elegir las técnicas más adecuadas, lo que requiere que se conozcan las características del problema. Para ello, a su vez, se debe analizar el problema, eligiendo una técnica antes de conocerlo. Si la técnica utiliza términos de diseño entonces se ha precondicionado el paradigma de solución y es posible que no sea el más adecuado para resolver el problema. En último lugar están las barreras pragmáticas que frenan la expansión del uso de métodos con base formal, dificultando su aplicación en la práctica cotidiana. Teniendo en cuenta todos los problemas planteados, se requieren métodos de análisis del problema que cumplan una serie de objetivos, el primero de los cuales es la necesidad de una base formal, con el fin de evitar la ambigüedad y permitir verificar la corrección de los modelos generados. Un segundo objetivo es la independencia de diseño: se deben utilizar términos que no tengan reflejo directo en el diseño, para que permitan centrarse en las características del problema. Además los métodos deben permitir analizar problemas de cualquier tipo: algorítmicos, de soporte a la decisión o basados en el conocimiento, entre otros. En siguiente lugar están los objetivos relacionados con aspectos pragmáticos. Por un lado deben incorporar una notación textual formal pero no matemática, de forma que se facilite su validación y comprensión por personas sin conocimientos matemáticos profundos pero al mismo tiempo sea lo suficientemente rigurosa para facilitar su verificación. Por otro lado, se requiere una notación gráfica complementaria para representar los modelos, de forma que puedan ser comprendidos y validados cómodamente por parte de los clientes y usuarios. Esta tesis doctoral presenta SETCM, un método de análisis que cumple estos objetivos. Para ello se han definido todos los elementos que forman los modelos de análisis usando una terminología independiente de paradigmas de diseño y se han formalizado dichas definiciones usando los elementos fundamentales de la teoría de conjuntos: elementos, conjuntos y relaciones entre conjuntos. Por otro lado se ha definido un lenguaje formal para representar los elementos de los modelos de análisis – evitando en lo posible el uso de notaciones matemáticas – complementado con una notación gráfica que permite representar de forma visual las partes más relevantes de los modelos. El método propuesto ha sido sometido a una intensa fase de experimentación, durante la que fue aplicado a 13 casos de estudio, todos ellos proyectos reales que han concluido en productos transferidos a entidades públicas o privadas. Durante la experimentación se ha evaluado la adecuación de SETCM para el análisis de problemas de distinto tamaño y en sistemas cuyo diseño final usaba paradigmas diferentes e incluso paradigmas mixtos. También se ha evaluado su uso por analistas con distinto nivel de experiencia – noveles, intermedios o expertos – analizando en todos los casos la curva de aprendizaje, con el fin de averiguar si es fácil de aprender su uso, independientemente de si se conoce o no alguna otra técnica de análisis. Por otro lado se ha estudiado la capacidad de ampliación de modelos generados con SETCM, para comprobar si permite abordar proyectos realizados en varias fases, en los que el análisis de una fase consista en ampliar el análisis de la fase anterior. En resumidas cuentas, se ha tratado de evaluar la capacidad de integración de SETCM en una organización como la técnica de análisis preferida para el desarrollo de software. Los resultados obtenidos tras esta experimentación han sido muy positivos, habiéndose alcanzado un alto grado de cumplimiento de todos los objetivos planteados al definir el método.---ABSTRACT---Software development is an inherently complex activity, which requires specific abilities of problem comprehension and solving. It is so difficult that it can even be said that there is no perfect method for each of the development stages and that there is no perfect life cycle model: each new problem is different to the precedent ones in some respect and the techniques that worked in other problems can fail in the new ones. Given that situation, the current trend is to integrate different methods, tools and techniques, using the best suited for each situation. This trend, however, raises some new problems. The first one is the selection of development approaches. If there is no a manifestly single best approach, how does one go about choosing an approach from the array of available options? The second problem has to do with the relationship between the analysis and design phases. This relation can lead to two major risks. On one hand, the analysis could be too shallow and far away from the design, making it very difficult to perform the transition between them. On the other hand, the analysis could be expressed using design terminology, thus becoming more a kind of preliminary design than a model of the problem to be solved. In third place there is the analysis dilemma, which can be expressed as follows. The developer has to choose the most adequate techniques for each problem, and to make this decision it is necessary to know the most relevant properties of the problem. This implies that the developer has to analyse the problem, choosing an analysis method before really knowing the problem. If the chosen technique uses design terminology then the solution paradigm has been preconditioned and it is possible that, once the problem is well known, that paradigm wouldn’t be the chosen one. The last problem consists of some pragmatic barriers that limit the applicability of formal based methods, making it difficult to use them in current practice. In order to solve these problems there is a need for analysis methods that fulfil several goals. The first one is the need of a formal base, which prevents ambiguity and allows the verification of the analysis models. The second goal is design-independence: the analysis should use a terminology different from the design, to facilitate a real comprehension of the problem under study. In third place the analysis method should allow the developer to study different kinds of problems: algorithmic, decision-support, knowledge based, etc. Next there are two goals related to pragmatic aspects. Firstly, the methods should have a non mathematical but formal textual notation. This notation will allow people without deep mathematical knowledge to understand and validate the resulting models, without losing the needed rigour for verification. Secondly, the methods should have a complementary graphical notation to make more natural the understanding and validation of the relevant parts of the analysis. This Thesis proposes such a method, called SETCM. The elements conforming the analysis models have been defined using a terminology that is independent from design paradigms. Those terms have been then formalised using the main concepts of the set theory: elements, sets and correspondences between sets. In addition, a formal language has been created, which avoids the use of mathematical notations. Finally, a graphical notation has been defined, which can visually represent the most relevant elements of the models. The proposed method has been thoroughly tested during the experimentation phase. It has been used to perform the analysis of 13 actual projects, all of them resulting in transferred products. This experimentation allowed evaluating the adequacy of SETCM for the analysis of problems of varying size, whose final design used different paradigms and even mixed ones. The use of the method by people with different levels of expertise was also evaluated, along with the corresponding learning curve, in order to assess if the method is easy to learn, independently of previous knowledge on other analysis techniques. In addition, the expandability of the analysis models was evaluated, assessing if the technique was adequate for projects organised in incremental steps, in which the analysis of one step grows from the precedent models. The final goal was to assess if SETCM can be used inside an organisation as the preferred analysis method for software development. The obtained results have been very positive, as SETCM has obtained a high degree of fulfilment of the goals stated for the method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La extrema competitividad derivada de la globalización, hace que los proyectos en Tecnologías de la Información (TI), no se valoren por si son buenos o malos. Se da por supuesto que el producto tecnológico es innovador, aporta un valor añadido y tiene un fundamento tecnológico sólido y bien construido. Europa es un gran exponente en Desarrollo e Investigación (I+D), pero todavía está por detrás de países como Estados Unidos o Japón en cuanto a Innovación (i). Nos falta conseguir llegar al mercado. No basta con conseguir con éxito una prueba de concepto. Hay que ir más allá. Partimos de la base de un proyecto: Secretify, un cliente de correo web multicuenta sencillo y atractivo que permite a los usuarios cifrar sus comunicaciones utilizando cuentas de correo electrónico ya existentes, sin la necesidad de saber nada sobre seguridad, criptografía o gestión de claves. La finalidad de este Trabajo es aplicar todos los conceptos aprendidos durante el Máster (en concreto en la rama de Gestión, Innovación y Negocio TI), para convertir Secretify en un producto que sacar al mercado con éxito, teniendo los conocimientos tanto técnicos como empresariales, para minimizar los riesgos y adecuarse al mercado.---ABSTRACT---The extreme competitiveness derived from globalization, makes projects in Information Technologies (IT) to not be evaluated for its goodness. It is assumed that the technology product is innovative, provides added value and has a solid technology basis and well constructed. Europe is a great exponent in Research & Development (R&D), but It is still far behind from countries like USA or Japan in terms of Innovation (i). We need to reach the market: it is not enough having a successful proof of concept. We must go further. We start from a project: Secretify, a simple and beautiful web-based multiaccount email client that allow users to cypher their communications using already existing email accounts, without the need to know about security, cryptography or key management. The purpose of this thesis is to apply all concepts learnt during the Master course (specifically in Management, Innovation and IT business), to turn Secretify into a successful market launch, having the technical and business knowledges, in order to reduce the risks and to adapt to the market.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre los años 1998 y 2006 la Administración estatal española adjudicó trece concesiones de autopistas de peaje. Actualmente ocho de ellas se encuentran en concurso de acreedores. Los motivos de esta situación son tres: los sobrecostes por expropiaciones, las subestimaciones en los costes de construcción, y las sobrestimaciones del tráfico. Los problemas de tráfico se agravaron a partir del año 2008 con la crisis económica. Para tratar de solucionar el problema, la Administración ha otorgado préstamos participativos y aprobado cuentas de compensación. Actualmente, se plantea la creación de una empresa nacional de autopistas que permita la reestructuración financiera en el sector. Ninguna de estas medidas servirá para solucionar definitivamente el problema del que adolece nuestra normativa concesional: la responsabilidad patrimonial de la Administración. Este trabajo tiene por objeto reflexionar sobre la conveniencia de que en los contratos se recoja esta garantía estatal. Se cuantifica el importe al que tendría que hacer frente la Administración si dejara quebrar las sociedades y se comprueba que realmente le resulta difícil optar por esa solución. Esto explica que la Administración se haya planteado crear una empresa pública que gestione dichos activos antes de que se produzca la quiebra, lo que requiere negociar las condiciones con los concesionarios. Sin embargo, estas renegociaciones son complejas. Este artículo concluye que la causa de los problemas es la garantía pública denominada ?responsabilidad patrimonial de la Administración?, por lo que se plantea la conveniencia de suprimirla

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre los años 1998 y 2006 la Administración estatal española adjudicó trece concesiones de autopistas de peaje. Transcurrida una década desde entonces, se puede afirmar que los resultados no han sido en ningún caso los esperados. Los costes por expropiaciones se dispararon, el importe de obra civil previsto inicialmente fue insuficiente, se produjeron retrasos en la fecha de entrada en explotación, y el tráfico fue muy inferior al planificado. Ante las dificultades financieras por las que comenzó a atravesar el sector, la Administración intervino en el año 2010 otorgando préstamos participativos y aprobando la creación de cuentas de compensación. Ninguna de esas medidas ha sido suficiente para evitar el concurso de ocho sociedades. La Administración se ha planteado la creación de una empresa nacional de autopistas. El objetivo de este trabajo es reflexionar sobre la conveniencia de crear dicha empresa. Para ello, se analizan las rentabilidades económica y financiera de las sociedades. Se concluye que la rentabilidad económica es insuficiente para financiar los costes de los recursos ajenos. Esto, unido al elevado apalancamiento financiero de las sociedades, ha ocasionado un deterioro progresivo de su situación financiera. La creación de una empresa nacional de autopistas sería una propuesta que no solucionaría el problema económico-financiero de las sociedades concesionarias. Para garantizar la viabilidad de esa empresa nacional serán necesarias aportaciones públicas diferidas a lo largo de los años. No obstante, esta medida puede evitar, al menos en el corto plazo, las consecuencias negativas derivadas del concurso de ocho sociedades concesionarias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La iniciativa FIWARE ofrece un conjunto de APIs potentes que proporcionan la base para una innovación rápida y eficiente en el Internet del Futuro. Estas APIs son clave en el desarrollo de aplicaciones que usan tecnologías muy recientes e innovadoras, como el Internet de las cosas o la Gestión de Identidad en módulos de seguridad. Este documento presenta el desarrollo de una aplicación web de FIWARE usando componentes virtualizados en máquinas virtuales. La aplicación web está basada en “la fábrica de chocolate de Willy Wonka” como una implementación metafórica de una aplicación de seguridad e IoT en un entorno industrial. El componente principal es un servidor web en node.js que conecta con varios componentes de FIWARE, conocidos como “Generic Enablers”. La implementación está compuesta por dos módulos principales: el módulo de IoT y el módulo de seguridad. El módulo de IoT gestiona los sensores instalados por Willy Wonka en las salas de fábrica para monitorizar varios parámetros como, por ejemplo, la temperatura, la presión o la ocupación. El módulo de IoT crea y recibe información de contexto de los sensores virtuales. Esta información de contexto es gestionada y almacenada en un componente de FIWARE conocido como Context Broker. El Context Broker está basado en mecanismos de subscripciones que postean los datos de los sensores en la aplicación, en tiempo real y cuando estos cambian. La conexión con el cliente se produce mediante Web Sockets (socket.io). El módulo de seguridad gestiona las cuentas y la información de los usuarios, les autentica en la aplicación usando una cuenta de FIWARE y comprueba la autorización para acceder a distintos recursos. Distintos roles son creados con distintos permisos asignados. Por ejemplo, Willy Wonka puede tener acceso a todos los recursos, mientras que un Oompa Loopa encargado de la sala del chocolate solo deberías de tener acceso a los recursos de su sala. Este módulo está compuesto por tres componentes: el Gestor de Identidades, el PEP Proxy y el PDP AuthZForce. El gestor de identidades almacena las cuentas de FIWARE de los usuarios y permite la autenticación Single Sing On usando el protocolo OAuth2. Tras logearse, los usuarios autenticados reciben un token de autenticación que es usado después por el AuthZForce para comprobar el rol y permiso asociado del usuario. El PEP Proxy actúa como un servidor proxy que redirige las peticiones permitidas y bloquea las no autorizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La participación de los jóvenes en los procesos de planificación urbana en Lisboa, Madrid y Fortaleza ha sido tema central de la presente tesis. Los principales objetivos perseguidos consisten en: caracterizar y analizar críticamente las dimensiones más importantes de la participación de jóvenes universitarios en los procesos participativos; aportar características de interés juvenil para un “modelo” de planificación urbana; elaborar directrices para el diseño de actuaciones en un proceso urbano participativo desde la perspectiva de los jóvenes; establecer el alcance de un instrumento urbano participativo reglamentado por el gobierno local entre los jóvenes; determinar si la percepción de los jóvenes universitarios acerca de las acciones del gobierno local tiene influencia en los procesos participativos. El universo estadístico de la muestra lo conforman la totalidad de 737 jóvenes universitarios encuestados en Lisboa, Madrid y Fortaleza. Que se distribuye en 104 encuestados en Lisboa, 329 en Madrid, y 304 en la ciudad de Fortaleza. El cuestionario contiene preguntas: abiertas, cerradas y mixtas. La mayor parte de las cuestiones son cerradas, y en cuanto a las opciones de respuesta: en muchas preguntas se ha aplicado, una escala tipo Likert, entre 1 y 4, siendo 4 el grado más alto (totalmente de acuerdo), y 1 el grado más bajo (nada de acuerdo), y para otras, una opción múltiple, con solamente una opción de respuesta. Se realizó un cuestionario de 31 preguntas en Lisboa, y tras su aplicación y obtención de resultados se revisó y mejoró obteniendo un cuestionario de 23 preguntas que fue aplicado en Madrid y Fortaleza. Se realizan análisis descriptivos, y algún análisis factorial en diversas preguntas del cuestionario, y se estudian diferencias en función de las variables sociodemográficas planteadas. Los resultados constatan que es muy baja la participación en los procesos institucionalizados por el gobierno local, en contrapartida es bastante alta en los procesos organizados por los ciudadanos. La información limita la participación de los jóvenes y ya que estos reconocen como motivación estar más y mejor informados y controlar y acompañar las acciones de su gobierno local. Por otra parte, desean participar en grupo en foros y debates presenciales. Los jóvenes madrileños consideran que las etapas más importantes en un proceso urbano participativo son: información, seguimiento y evaluación, mientras que para los jóvenes de Fortaleza son: Fiscalización, concienciación e información. Se ha verificado que desde la percepción de los jóvenes de Lisboa los ciudadanos son consultados en los procesos urbanos participativos y de acuerdo con los jóvenes de Madrid y Fortaleza los ciudadanos son dirigidos, influenciados y manipulados. Los problemas de carácter urbano no tienen una conceptualización clara y precisa entre los jóvenes universitarios y los problemas urbanos que más afectan la vida de los jóvenes universitarios son aparcamientos, contaminación y seguridad urbana. Sin embargo, los transportes son apuntados por los jóvenes universitarios de Lisboa, Madrid y Fortaleza. Además no saben identificar los problemas de su barrio. Así como de las causas y consecuencias y soluciones de los problemas urbanos. Eligen como mejor estrategia para desarrollar un proceso urbano participativo el acuerdo entre técnicos, población y el gobierno local. Los jóvenes universitarios de Fortaleza apuntan directrices para una planificación urbana con énfasis en la seguridad urbana, la sostenibilidad y la investigación, tecnología e innovación. Por otro lado, los jóvenes universitarios de Madrid perfilan tres “modelos” de planificación urbana: un “Modelo” socio-económica, un “Modelo” sostenible e innovadora y un “Modelo” de Planificación Urbana con énfasis en espacios públicos, entretenimiento, seguridad urbana y deporte. Los jóvenes universitarios rechazan la idea que la planificación urbana lleva en cuenta sus perspectivas y opiniones. Respeto al Presupuesto Participativo, el alcance de dicho proceso entre los jóvenes universitarios es extremamente bajo. Sin embargo, opinan que la aproximación entre ciudadanos, técnicos y gobierno en los procesos de Presupuesto Participativo mejora la rendición de cuentas. Además los jóvenes creen que dichos procesos conceden un poder moderado a los ciudadanos, y consideran que el poder concedido en los procesos urbanos influye directamente en el interés y empeño en participar. ABSTRACT Youth participation in urban planning processes in Lisbon, Madrid and Fortaleza is the main subject of this thesis. Our key goals are the following: characterising and critically analysing the most important dimensions of young university students’ participation in participative processes; providing features of interest for the young for an urban planning “model”; developing a variety of guidelines for designing actions in a participative urban process from the perspective of young people; analysing the impact upon the young of a participative urban instrument implemented by the local government; determining whether young university students’ perception of local government actions influences participative processes. The statistical universe of the sample comprises a total of 737 young university students who were surveyed in Lisbon, Madrid and Fortaleza, distributed as follows: 104 respondents in Lisbon, 329 in Madrid, and 304 in Fortaleza. The survey is made up of open-ended, closed-ended and mixed questions. Most questions are closed-ended. Regarding the answer options, a Likert-type scale has been used in many questions. The scale ranges from 1 to 4, 4 being the highest value (completely agree) and 1 the lowest (completely disagree). Besides, there are multiple-choice questions with only one possible answer. A 31- question survey was conducted in Lisbon. After the survey was run and the results were obtained, it was reviewed and improved. The improved version was a 23- question survey which was conducted in Madrid and Fortaleza. Descriptive analyses as well as some factorial analyses are carried out in several questions, and differences are studied depending on the socio-demographic variables involved. The results show that participation in processes implemented by local governments is very low. In contrast, participation is quite high in processes organised by citizens. Information limits youth participation, as young people point out that they are motivated by more and better information and by the possibility of monitoring and keeping track of their local government actions. They also wish to take part in face-to-face group forums and discussions. Young people from Madrid think that the most important stages in participative urban processes are information, follow-up and assessment, whereas young people from Fortaleza highlight tax matters, awareness and information. It has been confirmed that Lisbon youth perceive that citizens are consulted in participative urban processes. Youth from Madrid and Fortaleza, on the other hand, state that citizens are directed, influenced and manipulated. Young university students do not have a clear, precise concept of urban problems. Among these, they are most affected by car parks, pollution and urban safety, but the transport problem is pointed out by young university students from Lisbon, Madrid and Fortaleza. Furthermore, they cannot identify the problems in their neighbourhoods, nor are they able to specify the causes, consequences and solutions of urban problems. Their preferred strategy for developing a participative urban process is an agreement between technicians, the population and the local government. Young university students from Fortaleza suggest guidelines for an urban planning approach emphasising urban safety, sustainability and research, technology and innovation. Those from Madrid, for their part, outline three urban planning “models”: a socioeconomic “model”, a sustainable and innovative “model”, and an urban planning “model” with a focus on public areas, entertainment, urban safety and sport. Young university students disagree that urban planning takes their perspectives and views into account. Moreover, the impact of the Participative Budget upon their lives is extremely low. In their opinion, however, closer collaboration between citizens, technicians and governments in Participative Budget processes promotes accountability. The young also think that these processes give moderate power to citizens, and in their view the power that can be exerted in urban processes directly influences the interest in participating and the will to do so.