1000 resultados para Arquitectura, Sistemas e Redes
Resumo:
La creciente demanda de sistemas informáticos abiertos y con gran interacción entre cada una de sus partes, incluyendo también usuarios humanos, ha hecho aumentar el interés y el uso de sistemas donde múltiples agentes interactúan para alcanzar sus metas. Las interacciones pueden tener el objetivo de mejorar la eficiencia de los agentes aumentando el rendimiento del sistema, pero también pueden estar pensadas para posibilitar que nuevas metas —que un agente no sería capaz de alcanzar de forma individual— puedan ser conseguidas cuando varios de ellos trabajan en conjunto. En paralelo a este crecimiento, con el avance en el campo de investigación de los agentes software, y también por los recientes descubrimientos acerca de la importancia de determinados aspectos cognitivos en el proceso de toma de decisión y resolución de problemas, la idea de la inclusión de influencias cognitivas en el modelo de razonamiento de estos agentes se presenta como una alternativa muy atractiva para mejorar su comportamiento en general, y especialmente el social, en comparación con sistemas que no consideran estos aspectos en el diseño de soluciones para entornos complejos. Pensando en proveer una solución que pueda contribuir, de alguna manera, al avance en estas dos áreas, el presente trabajo presenta una arquitectura cognitiva para modelar agentes con habilidades sociales partiendo de una arquitectura base, que proporciona los comportamientos cognitivos reactivos y deliberativos de los agentes. La arquitectura ampliada debe aportar agentes cognitivos sociales capaces de afrontar mejor el aumento de la complejidad de los sistemas y presentar comportamientos más coherentes, explicables y más creíbles durante sus interacciones con los demás. Dos teorías sociológicas proponen los componentes y estructuras que han inspirado el desarrollo de esta arquitectura social, aportando mecanismos que permiten obtener una coordinación descentralizada en un entorno social dinámico y rico en interacciones: la Teoría de Roles y la Teoría de la Actividad. Los resultados alcanzados con el desarrollo de esta arquitectura dejan traslucir su capacidad para modelar agentes sociales cognitivos capaces de interactuar de forma personalizada entre ellos para la satisfacción de metas. Los nuevos componentes y mecanismos de la arquitectura han permitido conjugar y enriquecer los comportamientos reactivo-deliberativos de la arquitectura base con comportamientos sociales elaborados.
Resumo:
Clasificación y selección de materiales de cambio de fase según sus características para su aplicación en sistemas de almacenamiento de energía térmica
Resumo:
El objetivo de esta primera parte de este proyecto es realizar un modelo socioeconómico de evaluación para la instalación de un sistema de bicicleta pública con la ayuda del método de evaluación: el análisis multicriterio en el que se analizarán criterios de diferente tipología que se escogerán tras el estudio de unas encuestas realizadas a usuarios del sistema Vélo’v en Lyon y tras unas entrevistas realizadas a expertos y trabajadores en el campo de la bicicleta pública. Este modelo sirve como ayuda a la decisión en la fase de preparación de la creación de un SBP para asegurar el balance entre la rentabilidad financiera, la social y la medioambiental. Después de la toma de decisión, se procederá a la realización del proyecto y a su instalación y por último su funcionamiento. Los objetivos resultan: • Descripción de los sistemas de bicicleta pública y el marco de acción • Examinar los estudios realizados sobre el tema • Descripción de los trabajos realizados para este proyecto y posterior análisis para su aplicación • Determinar los requisitos de diseño y de dimensionamiento para la implantación de un SBP • Encontrar los criterios adecuados que se emplearan en el análisis multicriterio para la evaluación • Describir los indicadores para medir cada criterio • La ponderación de estos criterios según las encuestas realizadas a los usuarios • La realización de una alternativa 0 que describa la situación de la ciudad sin la realización del proyecto • Recomendación final del modelo a través de un cuadro de resultados. El objeto de la tercera parte del proyecto es la descripción técnica y gráfica de una caseta de servicio del sistema de préstamos de bicicleta pública en San Lorenzo de El Escorial. La Caseta proyectada tendrá funciones principales: un taller para el mantenimiento del servicio y un espacio de almacenamiento de bicicletas. La Caseta-Taller es una medida necesaria en la implantación de un servicio de bici pública puesto que el uso de las bicicletas necesita un mantenimiento. En un terreno accidentado y no siempre propicio para la circulación de bicicletas, estas sufren muchos degastes y necesitan reparaciones y mantenimiento continuo. Además, el servicio en San Lorenzo de El Escorial está sometido a flujos pendulares de desplazamientos puesto que la disponibilidad de bicicletas y de espacios libres en las estaciones es muy variable. Es necesario precisar de un espacio para el almacenamiento de bicicletas, ya sea para controlar la disponibilidad o bien para esperar a recibir el mantenimiento necesario. Aprovechando la construcción de un edificio nuevo se destinará un espacio en la Casa-Taller para el control y la gestión del sistema. En esta parte se detallará gráficamente la implantación de los puntos de préstamos en la vía urbana como complemento al dimensionamiento del anterior trabajo.
Resumo:
En la actualidad las redes de Pequeño Mundo están presentes en muchas aplicaciones distribuidas, pudiéndose construir estas redes añadiendo, a un grafo base, enlaces de largo alcance tomados conforme a una determinada distribución de probabiblidad. Los sistemas distribuidos actuales utilizan soluciones ad hoc específicas para calcular los enlaces de largo alcance. En este artículo proponemos un nuevo algoritmo distribuido llamado Selección Sesgada (SS), que utilizando únicamente un servicio de muestreo uniforme (que puede estar implementado mediante un protocolo gossip), es capaz de seleccionar enlaces largos conforme a cualquier distribución de probabilidad. SS es un algoritmo iterativo que dispone de un único parámetro (r) para indicar el número de iteraciones que debe ejecutarse. Se ha probado que la muestra obtenida con el algoritmo SS converge a la distribución objetivo a medida que aumenta el valor de r. También se ha calculado la cota analítica del error relativo máximo, para un determinado valor de r. Aunque este artículo se propone para el algoritmo SS como una herramienta para tomar muestras de nodos en una red, puede emplearse en cualquier contexto en el que sea necesario realizar un muestreo conforme a una determinada distribución de probabilidad, necesitando para funcionar únicamente un servicio de muestreo uniforme. Se han construido redes de Pequeño Mundo, modelo Kleinberg, utilizando SS para escoger los enlaces (vecinos) de largo alcance en estructuras de tipo toro. Hemos observado que con un número reducido de iteraciones (1) SS tiene un comportamiento muy similar a la distribución armónica de Kleinberg y (2) el número medio de saltos, utilizando enrutamiento ávido, no es peor que en una red construida con la distribución de Leinberg. También se ha observado que antes de obtener la convergencia, el número medio de saltos es menor que en las redes construidas mediante la distribución armónica de Leinberg (14% mejor en un toro de 1000 x 1000).
Resumo:
La idea que ha impulsado este Proyecto [Museo de Arquitectura en Toledo] es la situación característica inicial: tener dos parcelas separadas por una calle y la clara intención de que el Proyecto fuera un conjunto que uniera a ambas. El objetivo principal es crear un Museo abierto a la gente porque la Arquitectura: “en sentido positivo es una creación inseparable de la vida y de la sociedad en la cual se manifiesta; es en gran parte un hecho colectivo” (Aldo Rossi, Architettura per i musei). Se deduce, por lo tanto, que todo cuanto nos rodea en una ciudad, y prácticamente en nuestra vida, es arquitectura, es decir, el contenido del Museo. Y no se podría entender que un Museo, que deba hablar de algo tan cotidiano para todos, no desprenda una sensación de apertura y disponibilidad hacia el visitante. Por ello se concibe el Museo como un espacio abierto a la gente, como un Museo claramente público, como un espacio singular de la calle y nunca como un espacio cerrado que se mira a si mismo y que contiene “delicados jarrones de porcelana” que hay que observa con reverencia y extremo cuidado. No debe generar espacios que sólo se puedan experimentar en su interior; tiene que generar espacios que se vivan en la ciudad y por sus ciudadanos, tanto los habituales como los ocasionales. Otro objetivo importante es que cumpla su función que no es otra que la de exponer arquitectura. Tiene que poder mostrar toda la arquitectura que sea posible y utilizar todos los medios y posibilidades que tiene a su alcance. De esta manera se verá la arquitectura como siempre se ha visto pero también mostrada de otra manera, desde otro punto de vista distinto con el que normalmente nos paramos a mirarla y entenderla. Todo ello ubicado dentro de un contexto complejo como es el casco histórico de Toledo, y concretamente la zona de Santiago del Arrabal, al que se pretende considerar, manteniendo la continuidad con lo existente a la par que es necesario que este edificio tenga un carácter propio, sea destacable y claramente diferenciable del resto de edificios que le rodean proporcionando a la ciudad un nuevo carisma. Para alcanzar estos objetivos se han considerado los siguientes aspectos fundamentales que se desarrollarán posteriormente: - Interiorización y desarrollo de la idea germinal para la creación de un edificio concreto. - Búsqueda de un espacio urbano, público y de interés para el ciudadano. - Reflexión sobre qué es exponer arquitectura y cómo mostrarla. - Sistemas de instalaciones, estructurales y constructivos.
Resumo:
La presente tesis doctoral indaga en los procesos y hechos arquitectónicos que nacen e inciden en la sensibilidad fenomenológica, utilizando para ello los hallazgos que una disciplina como la danza puede aportar. Esta arquitectura de raíz fenomenológica no vendría definida por una geometría concreta, una cierta tecnología, un tipo o un sistema, sino más bien por la implicación del cuerpo a cualquier nivel. Nos parece así necesario explorar la inmersión en los fenómenos espacio temporales: la experiencia del contacto del espacio de nuestro cuerpo con la esencia espacial que está fuera del límite de nuestra piel. Es aquí donde la danza- y el movimiento en general- aparece como una disciplina clave, como un laboratorio donde investigar los conceptos que nos interesan con relación al sistema cuerpo y espacio. La texto se estructura según seis bloques dedicados respectivamente a la actitud, la atmósfera, la naturaleza, la intimidad/ el tacto, la fantasía y por último el espacio acústico/ el tiempo. En cada uno de ellos se estudian comparativamente- entre danza y arquitectura- estos conceptos, enmarcándolos además en un intervalo temporal concreto. En la primera parte, hablaremos de cómo en el sistema cuerpo-entorno inciden las afecciones bidireccionales de este sistema, es decir, cómo el cuerpo afecta al entorno, a través del gesto o acción (actitud) y cómo el entorno afecta al cuerpo bien sea mediante medios artificiales construidos ex profeso o por fenómenos naturales (atmósfera y naturaleza). Y en la segunda, la comparación se realizará a partir de la inmersión en el medio espacial- la experiencia del bailarín- y más centrada en los procesos conceptuales y gráficos de ambas disciplinas (la intimidad/ el tacto; la fantasía; y el espacio acústico/ el tiempo). A través de esta exploración revelaremos la genealogía de este territorio compartido entre arquitectura y danza, y veremos cómo se pueden ampliar los procesos creativos del proyecto arquitectónico, dotándolos de nuevas vías de experimentación. Las hipótesis de trabajo que confirmaremos serán las siguientes: - La delimitación de los objetos y entornos queda redefinida- o indefinida- según una permeabilidad y continuidad total que evidencia la pobreza de una simplista reducción a lo visual y en todo caso a quedarse en lo superficial de lo percibido. El cuerpo- el objeto- está en continuidad con su entorno formando diversos ensamblajes a lo largo del tiempo. Los límites (variables) se someten a continua negociación. - El espacio del cuerpo no es sólo físico sino también imaginativo y las redes tensadas en los ensamblajes espaciales no son sólo topológicas sino también pertenecientes a la fantasía. - El tiempo interviene activamente en los procesos de generación de la novedad lo que implica un cierto grado de incertidumbre (nos referimos a las potencialidades latentes aún no desveladas) activo en todo momento. - El cartografiado o trazado de mapas, la notación de los eventos, es necesaria para que éstos puedan incorporarse al proceso proyectual arquitectónico. No existe punto de vista externo para trazarlos, formamos parte de su misma sustancia. - La arquitectura se ocupará según esto de revelar y diferenciar trazas (fenómenos) en el ensamblaje espacial actual que despliega nuestro cuerpo en cada momento. Si bien estas hipótesis no son nuevas, sí pensamos que el presente estudio las sintetiza y las condensa y pone de manifiesto el valor de la danza y los procesos coreográficos para: a)- revelarlas con naturalidad; b)- ampliar las herramientas proyectuales. La metodología proyectual arquitectónica en muchas ocasiones cuenta con vacíos instrumentales para abordar estas hipótesis y es aquí donde la danza muestra su utilidad; c)- mostrar una expansión de las posibilidades aún por explorar que aparece en el territorio compartido de ambas. Entender esto incide directamente en nuestra forma de ver el espacio y el tiempo a través del conocimiento del cuerpo (en movimiento) y por tanto en nuestras intervenciones; d)- constatar cómo los acercamientos que tradicionalmente se han tenido a la arquitectura desde presupuestos fenomenológicos, se quedan cortos a la hora de trabajar con complejidad. Aparece así la vía de trabajo asociada a una fenomenología expandida, que se expondría en las conclusiones de la investigación.
Resumo:
Publicación de los resultados de la primera fase del proyecto “Integración de los espacios agrarios periurbanos en la planificación urbana y territorial desde el enfoque de los servicios de los ecosistemas - PAEc-SP” (financiado por el Plan Nacional de Investigación I+D+d 2008-2012), que se presentaron en el Seminario internacional celebrado en Madrid en noviembre de 2012. Esta segunda edición, de septiembre de 2013, incorpora las modificaciones realizadas a partir de los comentarios y recomendaciones de los expertos invitados, y de los agentes territoriales a los que se presentaron los primeros resultados de la investigación.
Resumo:
Si existe un denominador común en la contemporaneidad este tiene que ver con el cambio y la transitoriedad. Surfeamos en las olas de una sociedad siempre cambiante incierta y cada vez más imprevisible. La postmodernidad ha devenido en un tiempo sin certezas, el habitante de la sociedad de la transitoriedad desconoce la previsión de futuro. Ante la ausencia de certidumbres, los individuos están obligados a concatenar proyectos episódicos a corto plazo. Este modo de vida fragmentada requiere una gran capacidad de adaptación y flexibilidad para poder sobrevivir en condiciones de incertidumbre endémicas. Por esa razón, la construcción de cualquier situación en términos intelectuales y metodológicos a cualquier escala, requiere una nueva visión, no sólo en términos de espacio, sino fundamentalmente, de tiempo. La presente tesis no pretende plantear el problema desde el punto de vista filosófico, aunque inevitablemente tendrá que referirse a pensadores y científicos utilizados desde la arquitectura. En esta línea, se hace necesario preguntarse como el arquitecto puede operar con esta incertidumbre, en otras palabras: ¿Existe un potencial para el arquitecto en la inestabilidad y el cambio constante del contexto urbano, social y económico? ¿Y si es así, cómo se opera con esta incertidumbre? La inestabilidad de todo el contexto social, político, cultural y económico en el que la arquitectura tiene lugar hoy, hace imprescindible analizar las herramientas y protocolos de proyecto. La tesis tratará, como su título indica, sobre algunas de las estrategias que frente a los postulados del Movimiento Moderno, aparecen entre 1961 y 1978, y reformuladas bajo el prisma de la contemporaneidad, pueden constituir herramientas que hoy resulta pertinente analizar, desde un punto de vista crítico pero también pragmático, en el marco de inestabilidad en el que se desarrolla la disciplina arquitectónica, a estas metodologías las denominaremos Estrategias de Incertidumbre. Por definición, la arquitectura ha operado históricamente, entre el presente conocido y el futuro incierto. Y aunque en la segunda mitad del siglo XX, se produce un cambio significativo en la manera de aproximarse a los cambios futuros de programa o de uso, en la vida útil de los edificios, operando con el cambio y la indeterminación como herramientas de proyecto, lo que es probablemente nuevo hoy, es la inestabilidad de todo el contexto social, político, cultural y económico en el que se genera la arquitectura. La presente tesis analiza una serie de estrategias que han incorporado la incertidumbre como ingrediente activo en la elaboración del proyecto arquitectónico, hasta el punto de redefinir completamente la disciplina. La primera hipótesis plantea el diseño de la anticipación como respuesta a la incertidumbre, a través de la introducción de la flexibilidad programática en el proyecto, para generar estructuras capaces de asimilar los futuros cambios. En ese sentido se buscará la indeterminación del proyecto para dejar abierto su uso. A la vez, la introducción activa del factor tiempo transforma el rol del arquitecto, que pasa a ser un gestor interdisciplinar en la generación del proyecto abierto. La segunda hipótesis plantea el papel productivo de la incertidumbre dentro del proceso creativo, buscando deliberadamente la generación de oportunidades dentro del proceso de proyecto, fomentando la observación y descubrimiento frente al diseño y la definición, manejando tiempo, crecimiento y azar como variables proyectuales, entendiendo la obra como proceso de tal manera que lo inesperado pueda aparecer. Para acometer la investigación, en relación al modelo canónico del Movimiento Moderno, se analizan nuevos modelos surgidos en los 60 en distintos contextos, alineados entre otros, con los protocolos de John Cage y sus secuencias randomizadas o la cibernética, fundamentalmente a partir de 1961, año en el que se publican dos textos, Theory and Design in the First Machine Age de Reyner Banham y An approach to Cybernetics de Gordon Pask. El pensamiento sistémico de Gordon Pask – colaborador de Price en el Fun Palace - tendrá gran influencia en la formulación del concepto de Incertidumbre Calculada, enunciado y planteado como estrategia por Cedric Price, que incorpora, a partir de ese momento, protocolos de diseño propios de la cibernética, en proyectos como el Fun Palace y Potteries Thinkbelt a principios de los años 60. En ellos, el arquitecto, desde la toma de conciencia de la caducidad de los paradigmas clásicos heredados de los principales teóricos de la modernidad, entiende que el proyecto de arquitectura debe incorporar cierto grado de indeterminación para dar cabida a las incertidumbres del programa, introducir la obsolescencia programada o verificar el potencial de la incertidumbre en la sociedad postindustrial. Estos planteamientos tienen continuidad en la figura de un joven profesor llegado en 1970 a la Architectural Association de Londres, el arquitecto suizo Bernard Tschumi. Los programas académicos desarrollados por Tschumi en Londres de 1970 a 1975 - en los que combina el activismo político, las acciones urbanas inspiradas en Lefebvre y Debord y las técnicas del performance juegan un rol crucial en la formalización del discurso y la práctica arquitectónica a partir de los años 70 y suponen el paso de un modelo directo, transitivo, a un modelo operativo, donde la conducta y los objetivos no se establecen a priori, sino que se instalan en el interior de los procesos, ampliando un campo disciplinar, que a partir de ese momento se centrará en lo performativo. Tras estos proyectos, analizaremos su llegada a Nueva York en 1978, año en que presenta los Manhattan Transcripts y se publica Delirious New York, obras que sustituirán la cultura del espacio y la forma, por la capacidad de acción del programa a partir de su modificación dimensional y relacional. Este capítulo tendrá su epílogo en el Concurso Internacional de La Villette en 1982, en las propuetas de Tschumi, Koolhaas y Price, donde la indeterminación estará presente mediante la generación de paisajes perceptivos y programáticos cambiantes. Tras los dos capítulos centrales, el capítulo final Estrategias de Incertidumbre, que da título a la Tesis, recapitulará las estrategias analizadas a través de tres proyectos contemporáneos, proyectando otras tantas ventanas para futuras investigaciones.
Resumo:
En los últimos años los sistemas de Democracia Digital se vislumbran como aquellos que pueden proporcionar un cauce de participación ciudadana para la toma de decisiones mediante el empleo de plataformas telemáticas. Estas plataformas permitirían a los ciudadanos participar en debates y expresar su opinión sobre los temas que les atañen, con el objetivo de que puedan influir en la decisión final adoptada. En este artículo se presenta una propuesta de plataforma de Democracia Digital configurable y extensible para permitir su empleo en distintos escenarios de participación ciudadana a través de Internet. Se presenta una visión arquitectural de los elementos que componen la plataforma, identificando qué servicios deberían ser proporcionados intrínsecamente por cualquier plataforma de Democracia Digital y cuales podrían ser proporcionados por proveedores externos. Por último se plantea un posible entorno de implementación y uso de la plataforma propuesta.
Resumo:
En la actualidad, el crecimiento de la población y el desarrollo tecnológico de nuestros tiempos han originado novedosas formas de confort para los habitantes, lo cual a su vez se traduce en una demanda creciente de energía. No obstante, el concepto energético está llegando a la conciencia y es necesario adaptarse a la nueva situación, por lo tanto, es imprescindible el estudio y el aprovechamiento de nuevos sistemas constructivos de cerramientos, como pueden ser los cerramientos multicapas ligeros, que presentan características favorables para el ahorro en el consumo energético, y a su vez pueden ser industrializados, obteniendo beneficios, como la mejora de la calidad, el acortamiento de plazos constructivos, mayor seguridad, altas prestaciones, mayor ligereza, más espacio habitable, entre otros. El desarrollo de esta tesis doctoral esta centrado en definir tres propuestas de Cerramientos Multicapas Ligeros (CML) con estructura de light steel frame, analizando el comportamiento térmico y acústico, así como también el coste económico de las mismas, con el objetivo de demostrar que este tipo de sistema constructivo es una alternativa competitiva a los sistemas de Cerramientos Tradicionales y, que a su vez se puedan implementar en cualquier sistema constructivo y se puedan adaptar a los distintos ambientes climáticos que existen en España. Por otro lado, se han seleccionado tres Cerramientos Tradicionales, para llevar a cabo las distintas comparativas propuestas. La investigación se desarrolla en cinco grandes partes: La primera parte está formada por la justificación de la investigación y el planteamiento de los objetivos, así como también la hipótesis de partida y la metodología empleada. En la segunda parte se definen los antecedentes teóricos, divididos en tres temas: el cerramiento ? la fachada, la transmisión del calor y la transmisión del sonido en los cerramientos. También se realiza una síntesis del trabajo de investigación previo que he realizado ?Caracterización del comportamiento térmico de fachadas multicapas ligeras?, el cual sirve de base de partida para el desarrollo de esta tesis. Y por último, se desarrollan distintos temas relacionados con el Light Steel Frame (LSF), en donde se lleva a cabo una búsqueda de la documentación disponible sobre las investigaciones científico-tecnológicas, desde distintos puntos de vista: térmico, acústico, económico, estructural, en caso de incendio, industrialización y medioambiental ? sostenibilidad. Una vez realizados todos los puntos anteriores y para sintetizar la información, se lleva a cabo una clasificación de los sistemas de cerramientos que tienen como estructura el light steel frame, se analizan las ventajas e inconvenientes de cada uno de estos sistemas de la clasificación, llegando a unas conclusiones que sirven de base para definir las propuestas de Cerramientos Multicapas Ligeros. En la tercera parte, se definen los tres cerramientos tradicionales que se utilizan para realizar las comparativas con los cerramientos multicapas ligeros, definiendo las características de cada uno de los materiales y, también se desarrollan los criterios de diseño que deben cumplir los cerramientos multicapas ligeros, definiendo cada una de las tres muestras de ensayo de cerramientos multicapas ligeros. En la cuarta parte se lleva a cabo el análisis teórico ? experimental de las seis muestras de estudio, en donde, se realiza una investigación térmica basada en simulaciones y experimentaciones en células de ensayo e implementación de la termografía infrarroja. Por otro lado, se realiza también una investigación acústica desarrollando ensayos en laboratorio de aislamiento a ruido aéreo e intensimetría sonora. Y por último, se hace un análisis económico, tomando en cuenta las variables del coste de construcción, el consumo energético, el ahorro que supone la masa a la estructura y el espacio adicional que aporta este tipo de sistema constructivo a la superficie útil, para ello se plantean distintos escenarios de estudio. Una vez obtenidos los resultados de las diferentes investigaciones (térmica, acústica y económica), se llevan a cabo una serie de comparativas entre los cerramientos multicapas ligeros y los cerramientos tradicionales, y los cerramientos multicapas ligeros entre sí. En la quinta parte, se exponen las conclusiones derivadas de las distintas investigaciones y se realiza la comprobación de los objetivos propuestos y de la hipótesis de partida, destacando los hallazgos principales para cada situación y se presentan las líneas futuras de investigación que han ido surgiendo en el desarrollo de la tesis doctoral.
Resumo:
La evolución tecnológica surgida especialmente a partir de finales del siglo XX ha posibilitado la introducción de nuevos modelos de tarificación y sistemas de cobro de peaje en las redes de carreteras de distintos países. Algunos de los más representativos países de Europa (Alemania, Eslovaquia, República Checa, Portugal, Austria y Suiza entre otros), a diferencia de otros países en los continentes americano y asiático, han optado por introducir una tarificación global en sus redes de carreteras, bien mediante sistemas electrónicos de cobro de peajes free flow, o mediante la aplicación de viñetas, con el fin de financiar la inversión necesaria, tanto para la construcción de nuevas infraestructuras como para el mantenimiento de las ya existentes. Por otro lado, algunos países europeos no sólo han introducido la tarificación por razones económicas sino también lo han hecho con el fin de introducir políticas de road pricing, y por motivos ambientales, motivando con ello una mayor aceptabilidad social de la misma. Esta ponencia argumenta por qué la introducción de un nuevo modelo de tarificación en la red de carreteras de un país no tiene por qué suscitar un rechazo social, siempre que se haga de una manera ordenada, correcta, se expliquen sus ventajas y se introduzca dentro de un marco de interoperabilidad de estándares tecnológicos a nivel global.
Resumo:
Este documento trata de la instalación del sistema de provisión de abonados “Provisioning Gateway” (PG) para el proyecto Machine to Machine (M2M) de Ericsson, una tecnología que permite definir los abonados o dispositivos serán usados en las comunicaciones máquina a máquina. El proyecto ha sido realizado en Ericsson para una compañía de telefonía de España. Se hablará de la evolución que han sufrido las redes de comunicaciones en los últimos años y las aplicaciones que surgen a partir de ellas. Se hará especial hincapié en la tecnología de red más utilizada hoy en día, el 3G, y en su sucesora, el 4G, detallando las novedades que incorpora. Después se describirá el trabajo realizado por el ingeniero de Ericsson durante la instalación del PG (Provisioning Gateway), un nodo de la red a través del cual la compañía telefónica da de alta a los abonados, modifica sus parámetros o los elimina de la base de datos. Se explicarán las distintas fases de las que se compone la instalación, tanto la parte hardware como la parte software y por último las pruebas de verificación con el cliente. Por último se darán algunas conclusiones sobre el trabajo realizado y los conocimientos adquiridos. ABSTRACT This document describes the installation of Provisioning Gateway system (PG) for Machine to Machine (M2M) project in Ericsson, which is a technology that allows companies to define the subscribers that will be used of machine to Machine communications. This project has been developed in Ericsson for a Spanish telecommunication company. The evolution of telecommunication networks is going to be introduced, describing al the services developed in parallel. 3G technology will be describer in a deeper way because it is the most used technology nowadays and 4G because it represents the future in telecommunications. Después se describirá el trabajo realizado por el ingeniero de Ericsson durante la instalación del PG (Provisioning Gateway), un nodo de la red a través del cuál la compañía telefónica da de alta a los abonados, modifica sus parámetros o los elimina de la base de datos. Se explicarán las distintas fases de las que se compone la instalación, tanto la parte hardware como la parte software y por último las pruebas de verificación con el cliente. Furthermore, this document shows the installation process of PG system made by the Ericsson´s engineer. Telecommunication companies use PG for creating, defining and deleting subscribers from the database. The different steps of the installation procedure will be described among this document, talking about hardware and software installation and the final acceptant test. Finally, some conclusions about the work done and experience learned will be exposed.
Resumo:
Las redes inalámbricas están experimentando un gran crecimiento en el campo de la instrumentación electrónica. En concreto las redes de sensores inalámbricas (WSN de Wireless Sensor Network) suponen la opción más ventajosa para su empleo en la instrumentación electrónica ya que sus principales características se acoplan perfectamente a las necesidades. Las WSN permiten la utilización de un número relativamente alto de nodos, están orientadas a sistemas de bajo consumo y funcionamiento con baterías y poseen un ancho de banda adecuado para las necesidades de la instrumentación electrónica. En este proyecto fin de carrera se ha realizado un estudio de las tecnologías inalámbricas disponibles, se han comparado y se ha elegido la tecnología ZigBeeTM por considerarse la más adecuada y la que más se ajusta a las necesidades descritas. En el desarrollo de mi vida profesional se han conectado dos campos teóricamente distantes como son la instrumentación electrónica y la ingeniería civil. En este proyecto se hace una descripción de la instrumentación que se utiliza para controlar estructuras como presas, túneles y puentes y se proponen casos prácticos en los que las redes WSN aportan valor añadido a instrumentación actual y a los sistemas de comunicaciones utilizados. Se definen tanto los sistemas de comunicaciones utilizados actualmente como una serie de sensores utilizados para medir los principales parámetros a controlar en una obra civil. Por último se ha desarrollado una aplicación de prueba de una red ZigBeeTM basada en equipos comerciales del fabricante Digi. consiste en una aplicación desarrollada en entorno web que maneja de forma remota, a través de Internet, las entradas y salidas digitales y analógicas de los nodos que forman la red. Se forma una red ZigBeeTM con un coordinador, un router y un dispositivo final. El Coordinador está integrado en un Gateway que permite acceder a la red ZigBeeTM a través de internet y conocer el estado de los nodos que forman la red. Con los comandos adecuados se puede leer el estado de las entradas y salidas analógicas y digitales y cambiar el estado de una salida digital. ABSTRACT. Wireless networks are experiencing tremendous growth in the field of electronic instrumentation. In particular wireless sensor networks represent the most advantageous for use in electronic instrumentation since its main characteristics fit perfectly to the needs. The WSN allow the use of a relatively large number of nodes, are aimed at low-power systems and battery operation and have an adequate bandwidth for the needs of electronic instrumentation. In this project has made a study of available wireless technologies have been compared and chosen ZigBeeTM technology was considered the most appropriate to the needs described. In the course of my professional life have connected two fields are theoretically distant as electronic instrumentation and civil engineering. In this project, there is a description of the instrumentation used to control structures such as dams, tunnels and bridges and proposes practical cases in which WSN networks add value to current instrumentation and communications systems used. There are defined as communications systems now being used as a set of sensors used to measure the main parameters to be controlled in a civil structure. Finally, I have developed a test application based ZigBeeTM networking equipment maker Digi trading. It consists of a Web-based application developed to manage remotely, via the Internet, the digital and analog inputs and outputs nodes forming the network. ZigBeeTM It forms a network with a coordinator, router and end device. The Coordinator is built into a gateway that allows access to the ZigBeeTM network through internet and know the status of the nodes forming the network. With the appropriate command can read the status of the digital inputs and outputs and change the state of a digital output.
Resumo:
Cada vez es más frecuente que los sistemas de comunicaciones realicen buena parte de sus funciones (modulación y demodulación, codificación y decodificación...) mediante software en lugar de utilizar hardware dedicado. Esta técnica se denomina “Radio software”. El objetivo de este PFC es estudiar un algoritmo implementado en C empleado en sistemas de comunicaciones modernos, en concreto la decodificación de Viterbi, el cual se encarga de corregir los posibles errores producidos a lo largo de la comunicación, para poder trasladarlo a sistemas empotrados multiprocesador. Partiendo de un código en C para el decodificador que realiza todas sus operaciones en serie, en este Proyecto fin de carrera se ha paralelizado dicho código, es decir, que el trabajo que realizaba un solo hilo para el caso del código serie, es procesado por un número de hilos configurables por el usuario, persiguiendo que el tiempo de ejecución se reduzca, es decir, que el programa paralelizado se ejecute de una manera más rápida. El trabajo se ha realizado en un PC con sistema operativo Linux, pero la versión paralelizada del código puede ser empleada en un sistema empotrado multiprocesador en el cual cada procesador ejecuta el código correspondiente a uno de los hilos de la versión de PC. ABSTRACT It is increasingly common for communications systems to perform most of its functions (modulation and demodulation, coding and decoding) by software instead of than using dedicated hardware. This technique is called: “Software Radio”. The aim of the PFC is to study an implemented algorithm in C language used in modern communications systems, particularly Viterbi decoding, which amends any possible error produced during the communication, in order to be able to move multiprocessor embedded systems. Starting from a C code of the decoder that performs every single operation in serial, in this final project, this code has been parallelized, which means that the work used to be done by just a single thread in the case of serial code, is processed by a number of threads configured by the user, in order to decrease the execution time, meaning that the parallelized program is executed faster. The work has been carried out on a PC using Linux operating system, but the parallelized version of the code could also be used in an embedded multiprocessor system in which each processor executes the corresponding code to every single one of the threads of the PC version.
Resumo:
Este trabajo aborda el problema de modelizar sistemas din´amicos reales a partir del estudio de sus series temporales, usando una formulaci´on est´andar que pretende ser una abstracci´on universal de los sistemas din´amicos, independientemente de su naturaleza determinista, estoc´astica o h´ıbrida. Se parte de modelizaciones separadas de sistemas deterministas por un lado y estoc´asticos por otro, para converger finalmente en un modelo h´ıbrido que permite estudiar sistemas gen´ericos mixtos, esto es, que presentan una combinaci´on de comportamiento determinista y aleatorio. Este modelo consta de dos componentes, uno determinista consistente en una ecuaci´on en diferencias, obtenida a partir de un estudio de autocorrelaci´on, y otro estoc´astico que modeliza el error cometido por el primero. El componente estoc´astico es un generador universal de distribuciones de probabilidad, basado en un proceso compuesto de variables aleatorias, uniformemente distribuidas en un intervalo variable en el tiempo. Este generador universal es deducido en la tesis a partir de una nueva teor´ıa sobre la oferta y la demanda de un recurso gen´erico. El modelo resultante puede formularse conceptualmente como una entidad con tres elementos fundamentales: un motor generador de din´amica determinista, una fuente interna de ruido generadora de incertidumbre y una exposici´on al entorno que representa las interacciones del sistema real con el mundo exterior. En las aplicaciones estos tres elementos se ajustan en base al hist´orico de las series temporales del sistema din´amico. Una vez ajustados sus componentes, el modelo se comporta de una forma adaptativa tomando como inputs los nuevos valores de las series temporales del sistema y calculando predicciones sobre su comportamiento futuro. Cada predicci´on se presenta como un intervalo dentro del cual cualquier valor es equipro- bable, teniendo probabilidad nula cualquier valor externo al intervalo. De esta forma el modelo computa el comportamiento futuro y su nivel de incertidumbre en base al estado actual del sistema. Se ha aplicado el modelo en esta tesis a sistemas muy diferentes mostrando ser muy flexible para afrontar el estudio de campos de naturaleza dispar. El intercambio de tr´afico telef´onico entre operadores de telefon´ıa, la evoluci´on de mercados financieros y el flujo de informaci´on entre servidores de Internet son estudiados en profundidad en la tesis. Todos estos sistemas son modelizados de forma exitosa con un mismo lenguaje, a pesar de tratarse de sistemas f´ısicos totalmente distintos. El estudio de las redes de telefon´ıa muestra que los patrones de tr´afico telef´onico presentan una fuerte pseudo-periodicidad semanal contaminada con una gran cantidad de ruido, sobre todo en el caso de llamadas internacionales. El estudio de los mercados financieros muestra por su parte que la naturaleza fundamental de ´estos es aleatoria con un rango de comportamiento relativamente acotado. Una parte de la tesis se dedica a explicar algunas de las manifestaciones emp´ıricas m´as importantes en los mercados financieros como son los “fat tails”, “power laws” y “volatility clustering”. Por ´ultimo se demuestra que la comunicaci´on entre servidores de Internet tiene, al igual que los mercados financieros, una componente subyacente totalmente estoc´astica pero de comportamiento bastante “d´ocil”, siendo esta docilidad m´as acusada a medida que aumenta la distancia entre servidores. Dos aspectos son destacables en el modelo, su adaptabilidad y su universalidad. El primero es debido a que, una vez ajustados los par´ametros generales, el modelo se “alimenta” de los valores observables del sistema y es capaz de calcular con ellos comportamientos futuros. A pesar de tener unos par´ametros fijos, la variabilidad en los observables que sirven de input al modelo llevan a una gran riqueza de ouputs posibles. El segundo aspecto se debe a la formulaci´on gen´erica del modelo h´ıbrido y a que sus par´ametros se ajustan en base a manifestaciones externas del sistema en estudio, y no en base a sus caracter´ısticas f´ısicas. Estos factores hacen que el modelo pueda utilizarse en gran variedad de campos. Por ´ultimo, la tesis propone en su parte final otros campos donde se han obtenido ´exitos preliminares muy prometedores como son la modelizaci´on del riesgo financiero, los algoritmos de routing en redes de telecomunicaci´on y el cambio clim´atico. Abstract This work faces the problem of modeling dynamical systems based on the study of its time series, by using a standard language that aims to be an universal abstraction of dynamical systems, irrespective of their deterministic, stochastic or hybrid nature. Deterministic and stochastic models are developed separately to be merged subsequently into a hybrid model, which allows the study of generic systems, that is to say, those having both deterministic and random behavior. This model is a combination of two different components. One of them is deterministic and consisting in an equation in differences derived from an auto-correlation study and the other is stochastic and models the errors made by the deterministic one. The stochastic component is an universal generator of probability distributions based on a process consisting in random variables distributed uniformly within an interval varying in time. This universal generator is derived in the thesis from a new theory of offer and demand for a generic resource. The resulting model can be visualized as an entity with three fundamental elements: an engine generating deterministic dynamics, an internal source of noise generating uncertainty and an exposure to the environment which depicts the interactions between the real system and the external world. In the applications these three elements are adjusted to the history of the time series from the dynamical system. Once its components have been adjusted, the model behaves in an adaptive way by using the new time series values from the system as inputs and calculating predictions about its future behavior. Every prediction is provided as an interval, where any inner value is equally probable while all outer ones have null probability. So, the model computes the future behavior and its level of uncertainty based on the current state of the system. The model is applied to quite different systems in this thesis, showing to be very flexible when facing the study of fields with diverse nature. The exchange of traffic between telephony operators, the evolution of financial markets and the flow of information between servers on the Internet are deeply studied in this thesis. All these systems are successfully modeled by using the same “language”, in spite the fact that they are systems physically radically different. The study of telephony networks shows that the traffic patterns are strongly weekly pseudo-periodic but mixed with a great amount of noise, specially in the case of international calls. It is proved that the underlying nature of financial markets is random with a moderate range of variability. A part of this thesis is devoted to explain some of the most important empirical observations in financial markets, such as “fat tails”, “power laws” and “volatility clustering”. Finally it is proved that the communication between two servers on the Internet has, as in the case of financial markets, an underlaying random dynamics but with a narrow range of variability, being this lack of variability more marked as the distance between servers is increased. Two aspects of the model stand out as being the most important: its adaptability and its universality. The first one is due to the fact that once the general parameters have been adjusted , the model is “fed” on the observable manifestations of the system in order to calculate its future behavior. Despite the fact that the model has fixed parameters the variability in the observable manifestations of the system, which are used as inputs of the model, lead to a great variability in the possible outputs. The second aspect is due to the general “language” used in the formulation of the hybrid model and to the fact that its parameters are adjusted based on external manifestations of the system under study instead of its physical characteristics. These factors made the model suitable to be used in great variety of fields. Lastly, this thesis proposes other fields in which preliminary and promising results have been obtained, such as the modeling of financial risk, the development of routing algorithms for telecommunication networks and the assessment of climate change.