986 resultados para Viejos conocidos
Resumo:
El uso de Internet por parte de los ciudadanos para relacionarse con las Administraciones Públicas o en relación con actividades de comercio electrónico crece día a día. Así lo evidencian los diferentes estudios realizados en esta materia, como los que lleva a cabo el Observatorio Nacional de las Telecomunicaciones y la Sociedad de la Información (http://www.ontsi.red.es/ontsi/). Se hace necesario, por tanto, identificar a las partes intervinientes en estas transacciones, además de dotarlas de la confidencialidad necesaria y garantizar el no repudio. Uno de los elementos que, junto con los mecanismos criptográficos apropiados, proporcionan estos requisitos, son los certificados electrónicos de servidor web. Existen numerosas publicaciones dedicadas a analizar esos mecanismos criptográficos y numerosos estudios de seguridad relacionados con los algoritmos de cifrado, simétrico y asimétrico, y el tamaño de las claves criptográficas. Sin embargo, la seguridad relacionada con el uso de los protocolos de seguridad SSL/TLS está estrechamente ligada a dos aspectos menos conocidos: el grado de seguridad con el que se emiten los certificados electrónicos de servidor que permiten implementar dichos protocolos; y el uso que hacen las aplicaciones software, y en especial los navegadores web, de los campos que contiene el perfil de dichos certificados. Por tanto, diferentes perfiles de certificados electrónicos de servidor y diferentes niveles de seguridad asociados al procedimiento de emisión de los mismos, dan lugar a diferentes tipos de certificados electrónicos. Si además se considera el marco jurídico que afecta a cada uno de ellos, se puede concluir que existe una tipología de certificados de servidor, con diferentes grados de seguridad o de confianza. Adicionalmente, existen otros requisitos que también pueden pasar desapercibidos tanto a los titulares de los certificados como a los usuarios de los servicios de comercio electrónico y administración electrónica. Por ejemplo, el grado de confianza que otorgan los navegadores web a las Autoridades de Certificación emisoras de los certificados y cómo estas adquieren tal condición, o la posibilidad de poder verificar el estado de revocación del certificado electrónico. El presente trabajo analiza todos estos requisitos y establece, en función de los mismos, la correspondiente tipología de certificados electrónicos de servidor web. Concretamente, las características a analizar para cada tipo de certificado son las siguientes: Seguridad jurídica. Normas técnicas. Garantías sobre la verdadera identidad del dominio. Verificación del estado de revocación. Requisitos del Prestador de Servicios de Certificación. Los tipos de certificados electrónicos a analizar son: Certificados de servidor web: Certificados autofirmados y certificados emitidos por un Prestador de Servicios de Certificación. Certificados de dominio simple y certificados multidominio (wildcard y SAN) Certificados de validación extendida. Certificados de sede electrónica. ABSTRACT Internet use by citizens to interact with government or with e-commerce activities is growing daily. This topic is evidenced by different studies in this area, such as those undertaken by the Observatorio Nacional de las Telecomunicaciones y la Sociedad de la Información (http://www.ontsi.red.es/ontsi/ ). Therefore, it is necessary to identify the parties involved in these transactions, as well as provide guaranties such as confidentiality and non-repudiation. One instrument which, together with appropriate cryptographic mechanisms, provides these requirements is SSL electronic certificate. There are numerous publications devoted to analyzing these cryptographic mechanisms and many studies related security encryption algorithms, symmetric and asymmetric, and the size of the cryptographic keys. However, the safety related to the use of security protocols SSL / TLS is closely linked to two lesser known aspects: the degree of security used in issuing the SSL electronic certificates; and the way software applications, especially web Internet browsers, work with the fields of the SSL certificates profiles. Therefore, the diversity of profiles and security levels of issuing SSL electronic certificates give rise to different types of certificates. Besides, some of these electronic certificates are affected by a specific legal framework. Consequently, it can be concluded that there are different types of SSL certificates, with different degrees of security or trustworthiness. Additionally, there are other requirements that may go unnoticed both certificate holders and users of e-commerce services and e-Government. For example, the degree of trustworthiness of the Certification Authorities and how they acquire such a condition by suppliers of Internet browsers, or the possibility to verify the revocation status of the SSL electronic certificate. This paper discusses these requirements and sets, according to them, the type of SSL electronic certificates. Specifically, the characteristics analyzed for each type of certificate are the following: Legal security. Technical standards. Guarantees to the real identity of the domain. Check the revocation status. Requirements of the Certification Services Providers. The types of electronic certificates to be analyzed are the following: SSL electronic certificates: Self-signed certificates and certificates issued by a Certification Service Provider. Single-domain certificates and multi-domain certificates (wildcard and SAN) Extended Validation Certificates. “Sede electrónica” certificates (specific certificates for web sites of Spanish Public Administrations).
Resumo:
El estudio del impacto en frutos se realiza sobre la base de modelos mecánicos del impacto en sólidos; la naturaleza viscoelástica de los productos biológicos exige la utilización de modelos viscoelásticos, tanto en el caso del impacto como de las cargas estáticas. La respuesta de los frutos a la aplicación de cargas estáticas puede investigarse con métodos bien conocidos, aunque aun no tipificados de forma general; la respuesta a cargas dinámicas (impactos) requiere de métodos de ensayo y análisis específicos que han de ser investigados. El resultado de la aplicación de los impactos en frutos como la pera y la manzana es la aparición de magulladuras, cuya naturaleza y desarrollo exige mayores estudios.
Resumo:
La Diabetes Mellitus se define como el trastorno del metabolismo de los carbohidratos, resultante de una producción insuficiente o nula de insulina en las células beta del páncreas, o la manifestación de una sensibilidad reducida a la insulina por parte del sistema metabólico. La diabetes tipo 1 se caracteriza por la nula producción de insulina por la destrucción de las células beta del páncreas. Si no hay insulina en el torrente sanguíneo, la glucosa no puede ser absorbida por las células, produciéndose un estado de hiperglucemia en el paciente, que a medio y largo plazo si no es tratado puede ocasionar severas enfermedades, conocidos como síndromes de la diabetes. La diabetes tipo 1 es una enfermedad incurable pero controlable. La terapia para esta enfermedad consiste en la aplicación exógena de insulina con el objetivo de mantener el nivel de glucosa en sangre dentro de los límites normales. Dentro de las múltiples formas de aplicación de la insulina, en este proyecto se usará una bomba de infusión, que unida a un sensor subcutáneo de glucosa permitirá crear un lazo de control autónomo que regule la cantidad optima de insulina aplicada en cada momento. Cuando el algoritmo de control se utiliza en un sistema digital, junto con el sensor subcutáneo y bomba de infusión subcutánea, se conoce como páncreas artificial endocrino (PAE) de uso ambulatorio, hoy día todavía en fase de investigación. Estos algoritmos de control metabólico deben de ser evaluados en simulación para asegurar la integridad física de los pacientes, por lo que es necesario diseñar un sistema de simulación mediante el cual asegure la fiabilidad del PAE. Este sistema de simulación conecta los algoritmos con modelos metabólicos matemáticos para obtener una visión previa de su funcionamiento. En este escenario se diseñó DIABSIM, una herramienta desarrollada en LabViewTM, que posteriormente se trasladó a MATLABTM, y basada en el modelo matemático compartimental propuesto por Hovorka, con la que poder simular y evaluar distintos tipos de terapias y reguladores en lazo cerrado. Para comprobar que estas terapias y reguladores funcionan, una vez simulados y evaluados, se tiene que pasar a la experimentación real a través de un protocolo de ensayo clínico real, como paso previo al PEA ambulatorio. Para poder gestionar este protocolo de ensayo clínico real para la verificación de los algoritmos de control, se creó una interfaz de usuario a través de una serie de funciones de simulación y evaluación de terapias con insulina realizadas con MATLABTM (GUI: Graphics User Interface), conocido como Entorno de Páncreas artificial con Interfaz Clínica (EPIC). EPIC ha sido ya utilizada en 10 ensayos clínicos de los que se han ido proponiendo posibles mejoras, ampliaciones y/o cambios. Este proyecto propone una versión mejorada de la interfaz de usuario EPIC propuesta en un proyecto anterior para gestionar un protocolo de ensayo clínico real para la verificación de algoritmos de control en un ambiente hospitalario muy controlado, además de estudiar la viabilidad de conectar el GUI con SimulinkTM (entorno gráfico de Matlab de simulación de sistemas) para su conexión con un nuevo simulador de pacientes aprobado por la JDRF (Juvenil Diabetes Research Foundation). SUMMARY The diabetes mellitus is a metabolic disorder of carbohydrates, as result of an insufficient or null production of insulin in the beta cellules of pancreas, or the manifestation of a reduced sensibility to the insulin from the metabolic system. The type 1 diabetes is characterized for a null production of insulin due to destruction of the beta cellules. Without insulin in the bloodstream, glucose can’t be absorbed by the cellules, producing a hyperglycemia state in the patient and if pass a medium or long time and is not treated can cause severe disease like diabetes syndrome. The type 1 diabetes is an incurable disease but controllable one. The therapy for this disease consists on the exogenous insulin administration with the objective to maintain the glucose level in blood within the normal limits. For the insulin administration, in this project is used an infusion pump, that permit with a subcutaneous glucose sensor, create an autonomous control loop that regulate the optimal insulin amount apply in each moment. When the control algorithm is used in a digital system, with the subcutaneous senor and infusion subcutaneous pump, is named as “Artificial Endocrine Pancreas” for ambulatory use, currently under investigate. These metabolic control algorithms should be evaluates in simulation for assure patients’ physical integrity, for this reason is necessary to design a simulation system that assure the reliability of PAE. This simulation system connects algorithms with metabolic mathematics models for get a previous vision of its performance. In this scenario was created DIABSIMTM, a tool developed in LabView, that later was converted to MATLABTM, and based in the compartmental mathematic model proposed by Hovorka that could simulate and evaluate several different types of therapy and regulators in closed loop. To check the performance of these therapies and regulators, when have been simulated and evaluated, will be necessary to pass to real experimentation through a protocol of real clinical test like previous step to ambulatory PEA. To manage this protocol was created an user interface through the simulation and evaluation functions od therapies with insulin realized with MATLABTM (GUI: Graphics User Interface), known as “Entorno de Páncreas artificial con Interfaz Clínica” (EPIC).EPIC have been used in 10 clinical tests which have been proposed improvements, adds and changes. This project proposes a best version of user interface EPIC proposed in another project for manage a real test clinical protocol for checking control algorithms in a controlled hospital environment and besides studying viability to connect the GUI with SimulinkTM (Matlab graphical environment in systems simulation) for its connection with a new patients simulator approved for the JDRF (Juvenil Diabetes Research Foundation).
Resumo:
Digital services and communications in vehicular scenarios provide the essential assets to improve road transport in several ways like reducing accidents, improving traffic efficiency and optimizing the transport of goods and people. Vehicular communications typically rely on VANET (Vehicular Ad hoc Networks). In these networks vehicles communicate with each other without the need of infrastructure. VANET are mainly oriented to disseminate information to the vehicles in certain geographic area for time critical services like safety warnings but present very challenging requirements that have not been successfully fulfilled nowadays. Some of these challenges are; channel saturation due to simultaneous radio access of many vehicles, routing protocols in topologies that vary rapidly, minimum quality of service assurance and security mechanisms to efficiently detect and neutralize malicious attacks. Vehicular services can be classified in four important groups: Safety, Efficiency, Sustainability and Infotainment. The benefits of these services for the transport sector are clear but many technological and business challenges need to be faced before a real mass market deployment. Service delivery platforms are not prepared for fulfilling the needs of this complex environment with restrictive requirements due to the criticism of some services To overcome this situation, we propose a solution called VISIONS “Vehicular communication Improvement: Solution based on IMS Operational Nodes and Services”. VISIONS leverages on IMS subsystem and NGN enablers, and follows the CALM reference Architecture standardized by ISO. It also avoids the use of Road Side Units (RSUs), reducing complexity and high costs in terms of deployment and maintenance. We demonstrate the benefits in the following areas: 1. VANET networks efficiency. VISIONS provide a mechanism for the vehicles to access valuable information from IMS and its capabilities through a cellular channel. This efficiency improvement will occur in two relevant areas: a. Routing mechanisms. These protocols are responsible of carrying information from a vehicle to another (or a group of vehicles) using multihop mechanisms. We do not propose a new algorithm but the use of VANET topology information provided through our solution to enrich the performance of these protocols. b. Security. Many aspects of security (privacy, key, authentication, access control, revocation mechanisms, etc) are not resolved in vehicular communications. Our solution efficiently disseminates revocation information to neutralize malicious nodes in the VANET. 2. Service delivery platform. It is based on extended enablers, reference architectures, standard protocols and open APIs. By following this approach, we reduce costs and resources for service development, deployment and maintenance. To quantify these benefits in VANET networks, we provide an analytical model of the system and simulate our solution in realistic scenarios. The simulations results demonstrate how VISIONS improves the performance of relevant routing protocols and is more efficient neutralizing security attacks than the widely proposed solutions based on RSUs. Finally, we design an innovative Social Network service based in our platform, explaining how VISIONS facilitate the deployment and usage of complex capabilities. RESUMEN Los servicios digitales y comunicaciones en entornos vehiculares proporcionan herramientas esenciales para mejorar el transporte por carretera; reduciendo el número de accidentes, mejorando la eficiencia del tráfico y optimizando el transporte de mercancías y personas. Las comunicaciones vehiculares generalmente están basadas en redes VANET (Vehicular Ad hoc Networks). En dichas redes, los vehículos se comunican entre sí sin necesidad de infraestructura. Las redes VANET están principalmente orientadas a difundir información (por ejemplo advertencias de seguridad) a los vehículos en determinadas zonas geográficas, pero presentan unos requisitos muy exigentes que no se han resuelto con éxito hasta la fecha. Algunos de estos retos son; saturación del canal de acceso de radio debido al acceso simultáneo de múltiples vehículos, la eficiencia de protocolos de encaminamiento en topologías que varían rápidamente, la calidad de servicio (QoS) y los mecanismos de seguridad para detectar y neutralizar los ataques maliciosos de manera eficiente. Los servicios vehiculares pueden clasificarse en cuatro grupos: Seguridad, Eficiencia del tráfico, Sostenibilidad, e Infotainment (información y entretenimiento). Los beneficios de estos servicios para el sector son claros, pero es necesario resolver muchos desafíos tecnológicos y de negocio antes de una implementación real. Las actuales plataformas de despliegue de servicios no están preparadas para satisfacer las necesidades de este complejo entorno con requisitos muy restrictivos debido a la criticidad de algunas aplicaciones. Con el objetivo de mejorar esta situación, proponemos una solución llamada VISIONS “Vehicular communication Improvement: Solution based on IMS Operational Nodes and Services”. VISIONS se basa en el subsistema IMS, las capacidades NGN y es compatible con la arquitectura de referencia CALM estandarizado por ISO para sistemas de transporte. También evita el uso de elementos en las carreteras, conocidos como Road Side Units (RSU), reduciendo la complejidad y los altos costes de despliegue y mantenimiento. A lo largo de la tesis, demostramos los beneficios en las siguientes áreas: 1. Eficiencia en redes VANET. VISIONS proporciona un mecanismo para que los vehículos accedan a información valiosa proporcionada por IMS y sus capacidades a través de un canal de celular. Dicho mecanismo contribuye a la mejora de dos áreas importantes: a. Mecanismos de encaminamiento. Estos protocolos son responsables de llevar información de un vehículo a otro (o a un grupo de vehículos) utilizando múltiples saltos. No proponemos un nuevo algoritmo de encaminamiento, sino el uso de información topológica de la red VANET a través de nuestra solución para enriquecer el funcionamiento de los protocolos más relevantes. b. Seguridad. Muchos aspectos de la seguridad (privacidad, gestión de claves, autenticación, control de acceso, mecanismos de revocación, etc) no están resueltos en las comunicaciones vehiculares. Nuestra solución difunde de manera eficiente la información de revocación para neutralizar los nodos maliciosos en la red. 2. Plataforma de despliegue de servicios. Está basada en capacidades NGN, arquitecturas de referencia, protocolos estándar y APIs abiertos. Siguiendo este enfoque, reducimos costes y optimizamos procesos para el desarrollo, despliegue y mantenimiento de servicios vehiculares. Para cuantificar estos beneficios en las redes VANET, ofrecemos un modelo de analítico del sistema y simulamos nuestra solución en escenarios realistas. Los resultados de las simulaciones muestran cómo VISIONS mejora el rendimiento de los protocolos de encaminamiento relevantes y neutraliza los ataques a la seguridad de forma más eficientes que las soluciones basadas en RSU. Por último, diseñamos un innovador servicio de red social basado en nuestra plataforma, explicando cómo VISIONS facilita el despliegue y el uso de las capacidades NGN.
Resumo:
La predicción de energía eólica ha desempeñado en la última década un papel fundamental en el aprovechamiento de este recurso renovable, ya que permite reducir el impacto que tiene la naturaleza fluctuante del viento en la actividad de diversos agentes implicados en su integración, tales como el operador del sistema o los agentes del mercado eléctrico. Los altos niveles de penetración eólica alcanzados recientemente por algunos países han puesto de manifiesto la necesidad de mejorar las predicciones durante eventos en los que se experimenta una variación importante de la potencia generada por un parque o un conjunto de ellos en un tiempo relativamente corto (del orden de unas pocas horas). Estos eventos, conocidos como rampas, no tienen una única causa, ya que pueden estar motivados por procesos meteorológicos que se dan en muy diferentes escalas espacio-temporales, desde el paso de grandes frentes en la macroescala a procesos convectivos locales como tormentas. Además, el propio proceso de conversión del viento en energía eléctrica juega un papel relevante en la ocurrencia de rampas debido, entre otros factores, a la relación no lineal que impone la curva de potencia del aerogenerador, la desalineación de la máquina con respecto al viento y la interacción aerodinámica entre aerogeneradores. En este trabajo se aborda la aplicación de modelos estadísticos a la predicción de rampas a muy corto plazo. Además, se investiga la relación de este tipo de eventos con procesos atmosféricos en la macroescala. Los modelos se emplean para generar predicciones de punto a partir del modelado estocástico de una serie temporal de potencia generada por un parque eólico. Los horizontes de predicción considerados van de una a seis horas. Como primer paso, se ha elaborado una metodología para caracterizar rampas en series temporales. La denominada función-rampa está basada en la transformada wavelet y proporciona un índice en cada paso temporal. Este índice caracteriza la intensidad de rampa en base a los gradientes de potencia experimentados en un rango determinado de escalas temporales. Se han implementado tres tipos de modelos predictivos de cara a evaluar el papel que juega la complejidad de un modelo en su desempeño: modelos lineales autorregresivos (AR), modelos de coeficientes variables (VCMs) y modelos basado en redes neuronales (ANNs). Los modelos se han entrenado en base a la minimización del error cuadrático medio y la configuración de cada uno de ellos se ha determinado mediante validación cruzada. De cara a analizar la contribución del estado macroescalar de la atmósfera en la predicción de rampas, se ha propuesto una metodología que permite extraer, a partir de las salidas de modelos meteorológicos, información relevante para explicar la ocurrencia de estos eventos. La metodología se basa en el análisis de componentes principales (PCA) para la síntesis de la datos de la atmósfera y en el uso de la información mutua (MI) para estimar la dependencia no lineal entre dos señales. Esta metodología se ha aplicado a datos de reanálisis generados con un modelo de circulación general (GCM) de cara a generar variables exógenas que posteriormente se han introducido en los modelos predictivos. Los casos de estudio considerados corresponden a dos parques eólicos ubicados en España. Los resultados muestran que el modelado de la serie de potencias permitió una mejora notable con respecto al modelo predictivo de referencia (la persistencia) y que al añadir información de la macroescala se obtuvieron mejoras adicionales del mismo orden. Estas mejoras resultaron mayores para el caso de rampas de bajada. Los resultados también indican distintos grados de conexión entre la macroescala y la ocurrencia de rampas en los dos parques considerados. Abstract One of the main drawbacks of wind energy is that it exhibits intermittent generation greatly depending on environmental conditions. Wind power forecasting has proven to be an effective tool for facilitating wind power integration from both the technical and the economical perspective. Indeed, system operators and energy traders benefit from the use of forecasting techniques, because the reduction of the inherent uncertainty of wind power allows them the adoption of optimal decisions. Wind power integration imposes new challenges as higher wind penetration levels are attained. Wind power ramp forecasting is an example of such a recent topic of interest. The term ramp makes reference to a large and rapid variation (1-4 hours) observed in the wind power output of a wind farm or portfolio. Ramp events can be motivated by a broad number of meteorological processes that occur at different time/spatial scales, from the passage of large-scale frontal systems to local processes such as thunderstorms and thermally-driven flows. Ramp events may also be conditioned by features related to the wind-to-power conversion process, such as yaw misalignment, the wind turbine shut-down and the aerodynamic interaction between wind turbines of a wind farm (wake effect). This work is devoted to wind power ramp forecasting, with special focus on the connection between the global scale and ramp events observed at the wind farm level. The framework of this study is the point-forecasting approach. Time series based models were implemented for very short-term prediction, this being characterised by prediction horizons up to six hours ahead. As a first step, a methodology to characterise ramps within a wind power time series was proposed. The so-called ramp function is based on the wavelet transform and it provides a continuous index related to the ramp intensity at each time step. The underlying idea is that ramps are characterised by high power output gradients evaluated under different time scales. A number of state-of-the-art time series based models were considered, namely linear autoregressive (AR) models, varying-coefficient models (VCMs) and artificial neural networks (ANNs). This allowed us to gain insights into how the complexity of the model contributes to the accuracy of the wind power time series modelling. The models were trained in base of a mean squared error criterion and the final set-up of each model was determined through cross-validation techniques. In order to investigate the contribution of the global scale into wind power ramp forecasting, a methodological proposal to identify features in atmospheric raw data that are relevant for explaining wind power ramp events was presented. The proposed methodology is based on two techniques: principal component analysis (PCA) for atmospheric data compression and mutual information (MI) for assessing non-linear dependence between variables. The methodology was applied to reanalysis data generated with a general circulation model (GCM). This allowed for the elaboration of explanatory variables meaningful for ramp forecasting that were utilized as exogenous variables by the forecasting models. The study covered two wind farms located in Spain. All the models outperformed the reference model (the persistence) during both ramp and non-ramp situations. Adding atmospheric information had a noticeable impact on the forecasting performance, specially during ramp-down events. Results also suggested different levels of connection between the ramp occurrence at the wind farm level and the global scale.
Resumo:
La utilización de simulaciones por ordenador en el campo de la neurociencia, ofrece una mejora radical en el método científico al proporcionar un medio en el que poder probar hipótesis sobre los complejos modelos biológicos. Hay que tener en cuenta que la calidad de las simulaciones es directamente proporcional a la calidad de los datos y a la exactitud en la abstracción matemática de los procesos biológicos. Las sinapsis son los contactos que permiten el intercambio de información entre neuronas. A través de ellas, las neuronas son capaces de formar circuitos que intervienen en las operaciones funcionales específicas de las distintas regiones del cerebro. Por tanto, puede considerarse a la sinapasis como la estructura elemental y la unidad funcional en la construcción de circuitos neuronales. La inmensa mayoría de las sinapsis del cerebro de los vertebrados son sinapsis químicas. En ellas el elemento presináptico es generalmente un terminal axónico, mientras que el elemento postsináptico puede ser un cuerpo neuronal, el segmento inicial del axón, un tronco dendrítico o una espina dendrítica. Las membranas de los elementos pre y postsináptico no entran en contacto, sino que están separadas por un pequeño espacio denominado hendidura sináptica. En una sinapsis química, el elemento presináptico libera una sustancia química, el neurotransmisor, que difunde por la hendidura sináptica y actúa sobre el elemento postsináptico. Desde un punto de vista operacional, una sinapsis convierte un impulso eléctrico que alcanza el elemento presináptico en una señal química, que a su vez provoca un fenómeno eléctrico en el lado postsináptico. Para que esto ocurra, el neurotransmisor liberado debe difundir por la hendidura sináptica e interactuar con receptores específicos presentes en la membrana postsináptica. Dependiendo del tipo de neurotransmisor utilizado y de los receptores implicados la sinapsis podrá ser excitatoria, si se estimula el elemento postsináptico, o inhibitoria si ocurre lo contrario.La transmisión sináptica ocurre a escala submicroscópica, lo que la hace inaccesible a la observación experimental directa. Sin embargo, tanto la difusión del neurotransmisor como su interacción con los receptores sinápticos pueden simularse dado que dependen de parámetros fisico-químicos conocidos. En este trabajo hemos elegido como objeto de estudio una sinapsis glutamatérgica (que usa glutamato como neurotransmisor excitatorio) debido a que es la sinapsis más común en la corteza cerebral. Si bien se conocen las propiedades de los diferentes tipos de receptores de glutamato, se desconoce la influencia que pueda tener en el comportamiento de la sinapsis la geometría de ésta, es decir, su forma y tamaño. Sabemos por estudios de microscopía electrónica que tanto la forma como el tamaño de las sinapsis son muy variables, y es precisamente esta variabilidad la que pretendemos simular, junto con otros parámetros como el número de receptores de neurotransmisor.
Resumo:
El uso del Método de los Elementos de Contorno en problemas relacionados con dinámica de suelos está bien establecido por sus ventajas de discretización y precisión. En los casos de arcillas blandas saturadas en que el coeficiente de Poisson pueda tomarse v=0.5 se producen problemas bien conocidos en el Método de los Elementos Finitos mientras que en Elementos de Contorno aparecen efectos relacionados con una mala definición de la solución fundamental. En este artículo se ha utilizado una nueva reordenación de la solución fundamental para estudiar el efecto de reducción en los niveles de vibración cuando se interpone una zanja entre el foco de vibración y el receptor.
Resumo:
The aim of this thesis is the subjective and objective evaluation of angledependent absorption coefficients. As the assumption of a constant absorption coefficient over the angle of incidence is not always held, a new model acknowledging an angle-dependent reflection must be considered, to get a more accurate prediction in the sound field. The study provides information about the behavior of different materials in several rooms, depending on the reflection modeling of incident sound waves. An objective evaluation was run for an implementation of angle-dependent reflection factors in the image source and ray tracing simulation models. Results obtained were analysed after comparison to diffuse-field averaged data. However, changes in acoustic characteristics of a room do not always mean a variation in the listener’s perception. Thus, additional subjective evaluation allowed a comparison between the different results obtained with the computer simulation and the response from the individuals who participated in the listening test. The listening test was designed following a three-alternative forced-choice (3AFC) paradigm. In each interaction asked to the subjects a sequence of either three pink noise bursts or three natural signals was alternated. These results were supposed to show the influence and perception of the two different ways to implement surface reflection –either with diffuse or angle-dependent absorption properties. Results show slightly audible effects when material properties were exaggerated. El objetivo de este trabajo es la evaluación objetiva y subjetiva del coeficiente de absorción en función del ángulo de incidencia de la onda de sonido. La suposición de un coeficiente de absorción constante con respecto al ángulo de incidencia no siempre se sostiene. Por ello, un nuevo modelo considerando la reflexión dependiente del ángulo se debe tener en cuenta para obtener predicciones más certeras en el campo del sonido. El estudio proporciona información sobre el comportamiento de diferentes materiales en distintos recintos, dependientes del modelo de reflexión de las ondas de sonido incidentes. Debido a las dificultades a la hora de realizar las medidas y, por lo tanto, a la falta de datos, los coeficientes de absorción dependientes del ángulo a menudo no se tienen en cuenta a la hora de realizar las simulaciones. Hoy en día, aún no hay una tendencia de aplicar el coeficiente de absorción dependiente del ángulo para mejorar los modelos de reflexión. Por otra parte, para una medición satisfactoria de la absorción dependiente del ángulo, sólo hay unos pocos métodos. Las técnicas de medición actuales llevan mucho tiempo y hay algunos materiales, condiciones y ángulos que no pueden ser reproducidos y, por lo tanto, no es posible su medición. Sin embargo, en el presente estudio, los ángulos de incidencia de las ondas de sonido son conocidos y almacenados en una de base de datos para cada uno de los materiales, de modo que los coeficientes de absorción para el ángulo dado pueden ser devueltos siempre que sean requeridos por el usuario. Para realizar el estudio se llevó a cabo una evaluación objetiva, por medio de la implementación del factor de reflexión dependiente del ángulo en los modelos de fuentes imagen y trazado de rayos. Los resultados fueron analizados después de ser comparados con el promedio de los datos obtenidos en medidas en el campo difuso. La simulación se hizo una vez se configuraron un número de materiales creados por el autor, a partir de los datos existentes en la literatura y los catálogos de fabricantes. Los modelos de Komatsu y Mechel sirvieron como referencia para los materiales porosos, configurando la resistividad al aire o el grosor, y para los paneles perforados, introduciendo el radio de los orificios y la distancia entre centros, respectivamente. Estos materiales se situaban en la pared opuesta a la que se consideraba que debía alojar a la fuente sonora. El resto de superficies se modelaban con el mismo material, variando su coeficiente de absorción y/o de dispersión. Al mismo tiempo, una serie de recintos fueron modelados para poder reproducir distintos escenarios de los que obtener los resultados. Sin embargo, los cambios en las características acústicas de un recinto no significan variaciones en la percepción por parte del oyente. Por ello, una evaluación subjetiva adicional permitió una comparación entre los diferentes resultados obtenidos mediante la simulación informática y la respuesta de los individuos que participaron en la prueba de escucha. Ésta fue diseñada bajo las pautas del modelo de test three-alternative forced-choice (3AFC), con treinta y dos preguntas diferentes. En cada iteración los sujetos fueron preguntados por una secuencia alterna entre tres señales, siendo dos de ellas iguales. Éstas podían ser tanto ráfagas de ruido rosa como señales naturales, en este test se utilizó un fragmento de una obra clásica interpretada por un piano. Antes de contestar al cuestionario, los bloques de preguntas eran ordenados al azar. Para cada ensayo, la mezcla era diferente, así los sujetos no repetían la misma prueba, evitando un sesgo por efectos de aprendizaje. Los bloques se barajaban recordando siempre el orden inicial, para después almacenar los resultados reordenados. La prueba de escucha fue realizada por veintitrés personas, toda ellas con conocimientos dentro del campo de la acústica. Antes de llevar a cabo la prueba de escucha en un entorno adecuado, una hoja con las instrucciones fue facilitada a cada persona. Los resultados muestran la influencia y percepción de las dos maneras distintas de implementar las reflexiones de una superficie –ya sea con respecto a la propiedad de difusión o de absorción dependiente del ángulo de los materiales. Los resultados objetivos, después de ejecutar las simulaciones, muestran los datos medios obtenidos para comprender el comportamiento de distintos materiales de acuerdo con el modelo de reflexión utilizado en el caso de estudio. En las tablas proporcionadas en la memoria se muestran los valores del tiempo de reverberación, la claridad y el tiempo de caída temprana. Los datos de las características del recinto obtenidos en este análisis tienen una fuerte dependencia respecto al coeficiente de absorción de los diferentes materiales que recubren las superficies del cuarto. En los resultados subjetivos, la media de percepción, a la hora de distinguir las distintas señales, por parte de los sujetos, se situó significativamente por debajo del umbral marcado por el punto de inflexión de la función psicométrica. Sin embargo, es posible concluir que la mayoría de los individuos tienden a ser capaces de detectar alguna diferencia entre los estímulos presentados en el 3AFC test. En conclusión, la hipótesis de que los valores del coeficiente de absorción dependiente del ángulo difieren es contrastada. Pero la respuesta subjetiva de los individuos muestra que únicamente hay ligeras variaciones en la percepción si el coeficiente varía en intervalos pequeños entre los valores manejados en la simulación. Además, si los parámetros de los materiales acústicos no son exagerados, los sujetos no perciben ninguna variación. Los primeros resultados obtenidos, proporcionando información respecto a la dependencia del ángulo, llevan a una nueva consideración en el campo de la acústica, y en la realización de nuevos proyectos en el futuro. Para futuras líneas de investigación, las simulaciones se deberían realizar con distintos tipos de recintos, buscando escenarios con geometrías irregulares. También, la implementación de distintos materiales para obtener resultados más certeros. Otra de las fases de los futuros proyectos puede realizarse teniendo en cuenta el coeficiente de dispersión dependiente del ángulo de incidencia de la onda de sonido. En la parte de la evaluación subjetiva, realizar una serie de pruebas de escucha con distintos individuos, incluyendo personas sin una formación relacionada con la ingeniería acústica.
Resumo:
Telecommunications networks have been always expanding and thanks to it, new services have appeared. The old mechanisms for carrying packets have become obsolete due to the new service requirements, which have begun working in real time. Real time traffic requires strict service guarantees. When this traffic is sent through the network, enough resources must be given in order to avoid delays and information losses. When browsing through the Internet and requesting web pages, data must be sent from a server to the user. If during the transmission there is any packet drop, the packet is sent again. For the end user, it does not matter if the webpage loads in one or two seconds more. But if the user is maintaining a conversation with a VoIP program, such as Skype, one or two seconds of delay in the conversation may be catastrophic, and none of them can understand the other. In order to provide support for this new services, the networks have to evolve. For this purpose MPLS and QoS were developed. MPLS is a packet carrying mechanism used in high performance telecommunication networks which directs and carries data using pre-established paths. Now, packets are forwarded on the basis of labels, making this process faster than routing the packets with the IP addresses. MPLS also supports Traffic Engineering (TE). This refers to the process of selecting the best paths for data traffic in order to balance the traffic load between the different links. In a network with multiple paths, routing algorithms calculate the shortest one, and most of the times all traffic is directed through it, causing overload and packet drops, without distributing the packets in the other paths that the network offers and do not have any traffic. But this is not enough in order to provide the real time traffic the guarantees it needs. In fact, those mechanisms improve the network, but they do not make changes in how the traffic is treated. That is why Quality of Service (QoS) was developed. Quality of service is the ability to provide different priority to different applications, users, or data flows, or to guarantee a certain level of performance to a data flow. Traffic is distributed into different classes and each of them is treated differently, according to its Service Level Agreement (SLA). Traffic with the highest priority will have the preference over lower classes, but this does not mean it will monopolize all the resources. In order to achieve this goal, a set policies are defined to control and alter how the traffic flows. Possibilities are endless, and it depends in how the network must be structured. By using those mechanisms it is possible to provide the necessary guarantees to the real-time traffic, distributing it between categories inside the network and offering the best service for both real time data and non real time data. Las Redes de Telecomunicaciones siempre han estado en expansión y han propiciado la aparición de nuevos servicios. Los viejos mecanismos para transportar paquetes se han quedado obsoletos debido a las exigencias de los nuevos servicios, que han comenzado a operar en tiempo real. El tráfico en tiempo real requiere de unas estrictas garantías de servicio. Cuando este tráfico se envía a través de la red, necesita disponer de suficientes recursos para evitar retrasos y pérdidas de información. Cuando se navega por la red y se solicitan páginas web, los datos viajan desde un servidor hasta el usuario. Si durante la transmisión se pierde algún paquete, éste se vuelve a mandar de nuevo. Para el usuario final, no importa si la página tarda uno o dos segundos más en cargar. Ahora bien, si el usuario está manteniendo una conversación usando algún programa de VoIP (como por ejemplo Skype) uno o dos segundos de retardo en la conversación podrían ser catastróficos, y ninguno de los interlocutores sería capaz de entender al otro. Para poder dar soporte a estos nuevos servicios, las redes deben evolucionar. Para este propósito se han concebido MPLS y QoS MPLS es un mecanismo de transporte de paquetes que se usa en redes de telecomunicaciones de alto rendimiento que dirige y transporta los datos de acuerdo a caminos preestablecidos. Ahora los paquetes se encaminan en función de unas etiquetas, lo cual hace que sea mucho más rápido que encaminar los paquetes usando las direcciones IP. MPLS también soporta Ingeniería de Tráfico (TE). Consiste en seleccionar los mejores caminos para el tráfico de datos con el objetivo de balancear la carga entre los diferentes enlaces. En una red con múltiples caminos, los algoritmos de enrutamiento actuales calculan el camino más corto, y muchas veces el tráfico se dirige sólo por éste, saturando el canal, mientras que otras rutas se quedan completamente desocupadas. Ahora bien, esto no es suficiente para ofrecer al tráfico en tiempo real las garantías que necesita. De hecho, estos mecanismos mejoran la red, pero no realizan cambios a la hora de tratar el tráfico. Por esto es por lo que se ha desarrollado el concepto de Calidad de Servicio (QoS). La calidad de servicio es la capacidad para ofrecer diferentes prioridades a las diferentes aplicaciones, usuarios o flujos de datos, y para garantizar un cierto nivel de rendimiento en un flujo de datos. El tráfico se distribuye en diferentes clases y cada una de ellas se trata de forma diferente, de acuerdo a las especificaciones que se indiquen en su Contrato de Tráfico (SLA). EL tráfico con mayor prioridad tendrá preferencia sobre el resto, pero esto no significa que acapare la totalidad de los recursos. Para poder alcanzar estos objetivos se definen una serie de políticas para controlar y alterar el comportamiento del tráfico. Las posibilidades son inmensas dependiendo de cómo se quiera estructurar la red. Usando estos mecanismos se pueden proporcionar las garantías necesarias al tráfico en tiempo real, distribuyéndolo en categorías dentro de la red y ofreciendo el mejor servicio posible tanto a los datos en tiempo real como a los que no lo son.
Resumo:
El objetivo fundamental de la presente tesis doctoral es el diseño de una arquitectura cognitiva, que pueda ser empleada para la navegación autónoma de vehículos aéreos no tripulados conocidos como UAV (Unmanned Aerial Vehicle). Dicha arquitectura cognitiva se apoya en la definición de una librería de comportamientos, que aportarán la inteligencia necesaria al UAV para alcanzar los objetivos establecidos, en base a la información sensorial recopilada del entorno de operación. La navegación autónoma del UAV se apoyará en la utilización de un mapa topológico visual, consistente en la definición de un grafo que engloba mediante nodos los diferentes landmarks ubicados en el entorno, y que le servirán al UAV de guía para alcanzar su objetivo. Los arcos establecidos entre los nodos del mapa topológico, le proporcionarán de la información necesaria para establecer el rumbo más adecuado para alcanzar el siguiente landmark a visitar, siguiendo siempre una secuencia lógica de navegación, basada en la distancia entre un determinado landmark con respecto al objetivo final ó landmark destino. La arquitectura define un mecanismo híbrido de control, el cual puede conmutar entre dos diferentes modos de navegación. El primero es el denominado como Search Mode, el cual se activará cuando el UAV se encuentre en un estado desconocido dentro del entorno, para lo cual hará uso de cálculos basado en la entropía para la búsqueda de posibles landmarks. Se empleará como estrategia novedosa la idea de que la entropía de una imagen tiene una correlación directa con respecto a la probabilidad de que dicha imagen contenga uno ó varios landmarks. De esta forma, la estrategia para la búsqueda de nuevos landmarks en el entorno, se basará en un proceso continuo de maximización de la entropía. Si por el contrario el UAV identifica la existencia de un posible landmark entre los definidos en su mapa topológico, se considerará que está sobre un estado conocido, por lo que se conmutará al segundo modo de navegación denominado como Homing Mode, el cual se encargará de calcular señales de control para la aproximación del UAV al landmark localizado. Éste último modo implementa un control dual basado en dos tipos de controladores (FeedForward/FeedBack) que mediante su combinación, aportarán al UAV señales de control cada vez más óptimas, además de llevar a cabo un entrenamiento continuo y en tiempo real. Para cumplir con los requisitos de ejecución y aprendizaje en tiempo real de la arquitectura, se han tomado como principales referencias dos paradigmas empleados en diferentes estudios dentro del área de la robótica, como son el paradigma de robots de desarrollo (developmental robots) basado en un aprendizaje del robot en tiempo real y de forma adaptativa con su entorno, así como del paradigma de modelos internos (internal models) basado en los resultados obtenidos a partir de estudios neurocientíficos del cerebelo humano; dicho modelo interno sirve de base para la construcción del control dual de la arquitectura. Se presentarán los detalles de diseño e implementación de los diferentes módulos que componen la arquitectura cognitiva híbrida, y posteriormente, los diferentes resultados obtenidos a partir de las pruebas experimentales ejecutadas, empleando como UAV la plataforma robótica aérea de AR.Drone. Como resultado final se ha obtenido una validación completa de la arquitectura cognitiva híbrida objetivo de la tesis, cumplimento con la totalidad de requisitos especificados y garantizando su viabilidad como aplicación operativa en el mundo real. Finalmente, se muestran las distintas conclusiones a las cuales se ha llegado a partir de los resultados experimentales, y se presentan las diferentes líneas de investigación futuras que podrán ser ejecutadas.
Resumo:
Un tipo de máquinas de tratamiento de la información que llamamos ordenadores personales ha invadido el mundo. Popularmente conocidos por el nombre acronímico de pecés, se distribuyen por la sociedad entera en un número que ya se mide en el orden de magnitud de las decenas de millones de unidades. Adelantando unos datos que completaremos más adelante, durante el año 1988 se vendieron dieciséis millones de estas máquinas, siete de ellos en Europa.
Resumo:
Esta comunicación pretende mostrar cómo ?el color? es un mecanismo de manipulación de la percepción espacio temporal que, aunque presente en otras artes, merece especial atención por su utilización de forma análoga en la arquitectura y en el cine como herramienta capaz de ?modelar? el espacio y alterar el tiempo. Para ilustrar este análisis, cada uno de los conceptos se aborda a través de dos recurrentes y conocidos ejemplos: un edificio, La Facultad de arquitectura de Oporto (1983-1996) del arquitecto Alvaro Siza (1933) y una película, Apocalypse Now Redux (versión ampliada 2001) del director y guionista de cine Francis Ford Coppola (1933). Aunque podrían mostrase las mismas estrategias en multitud de obras de arquitectura o de cine, se ha preferido concentrar la atención únicamente en estos dos casos, para poder llevar dicho análisis en paralelo a ambas disciplinas y facilitar así la comprensión de sus analogías.
Resumo:
El incremento experimentado por la construcción de grandes túneles ha provocado un renovado interés por el estudio de las diferentes situaciones de accidente que se pueden producir durante su vida de servicio. Entre ellos uno de los más complicados y peor conocidos es el caso de un accidente con fuego en el interior del túnel. Mediante el uso de un método numérico de volúmenes finitos este articulo presenta un estudio sobre las implicaciones del uso de trampillas de extracción de humos así como algunas conclusiones obtenidas tras el estudio de los resultados. La nueva red de carreteras es uno de los factores básicos de cohesión entre los países de la Unión Europea. Las estrictas condiciones impuestas en su proyecto para favorecer la rápida distribución de personas y bienes, tienen gran influencia en la construcción de túneles mayores y más largos que, además, sufren el paso de un numero de vehículos en continuo crecimiento. Este aumento de tráfico se ve acompañado por una demanda de confort y seguridad especialmente en lo que se refiere a la ventilación necesaria para mantener controlada la contaminación en el interior del túnel así como en las precauciones que deben establecerse para limitar el daño y las muertes que puedan surgir durante el desarrollo de un incendio. En túneles urbanos, donde la contaminación provocada por el trafico puede afectar al ambiente, tradicionalmente se ha tomado como factor dimensionante la situación de servicio en condiciones de intensidad nominal. Sin embargo, la reducción en la emisión de contaminantes como consecuencia de reglamentos mas estrictos ha inclinado la balanza hacia el esceiario de fuego como el más necesitado de estudio. En medio urbano esa situación se complica en caso de tráfico saturado. Puesto que esta condición "accidental" es independiente del tráfico que cruza el túnel (salvo a efectos de las filosofías de actuación sobre los sistemas de ventilación) se concluye que esta situación es la condición dimensionante del sistema. Existe una larga tradición en el estudio de estos temas que puede seguirse en la serie de Conferencias organizadas por la BHRA desde 1975 o las recomendaciones preparadas por el Grupo de túneles de la PIARC.
Resumo:
La configuración de un cilindro acoplado a una semi-esfera, conocida como ’hemispherecylinder’, se considera como un modelo simplificado para numerosas aplicaciones industriales tales como fuselaje de aviones o submarinos. Por tanto, el estudio y entendimiento de los fenómenos fluidos que ocurren alrededor de dicha geometría presenta gran interés. En esta tesis se muestra la investigación del origen y evolución de los, ya conocidos, patrones de flujo (burbuja de separación, vórtices ’horn’ y vórtices ’leeward’) que se dan en esta geometría bajo condiciones de flujo separado. Para ello se han llevado a cabo simulaciones numéricas (DNS) y ensayos experimentales usando la técnica de Particle Image Velocimetry (PIV), para una variedad de números de Reynolds (Re) y ángulos de ataque (AoA). Se ha aplicado sobre los resultados numéricos la teoría de puntos críticos obteniendo, por primera vez para esta geometría, un diagrama de bifurcaciones que clasifica los diferentes regímenes topológicos en función del número de Reynolds y del ángulo de ataque. Se ha llevado a cabo una caracterización completa sobre el origen y la evolución de los patrones estructurales característicos del cuerpo estudiado. Puntos críticos de superficie y líneas de corriente tridimensionales han ayudado a describir el origen y la evolución de las principales estructuras presentes en el flujo hasta alcanzar un estado de estabilidad desde el punto de vista topológico. Este estado se asocia con el patrón de los vórtices ’horn’, definido por una topología característica que se encuentra en un rango de números de Reynolds muy amplio y en regímenes compresibles e incompresibles. Por otro lado, con el objeto de determinar las estructuras presentes en el flujo y sus frecuencias asociadas, se han usado distintas técnicas de análisis: Proper Orthogonal Decomposition (POD), Dynamic Mode Decomposition (DMD) y análisis de Fourier. Dichas técnicas se han aplicado sobre los datos experimentales y numéricos, demostrándose la buena concordancia entre ambos resultados. Finalmente, se ha encontrado en ambos casos, una frecuencia dominante asociada con una inestabilidad de los vórtices ’leeward’. ABSTRACT The hemisphere-cylinder may be considered as a simplified model for several geometries found in industrial applications such as aircrafts’ fuselages or submarines. Understanding the complex flow phenomena that surrounds this particular geometry is therefore of major industrial interest. This thesis presents an investigation of the origin and evolution of the complex flow pattern; i.e. separation bubbles, horn vortices and leeward vortices, around the hemisphere-cylinder under separated flow conditions. To this aim, threedimensional Direct Numerical Simulations (DNS) and experimental tests, using Particle Image Velocimetry (PIV) techniques, have been performed for a variety of Reynolds numbers (Re) and angles of attack (AoA). Critical point theory has been applied to the numerical simulations to provide, for the first time for this geometry, a bifurcation diagram that classifies the different flow topology regimes as a function of the Reynolds number and the angle of attack. A complete characterization about the origin and evolution of the complex structural patterns of this geometry has been put in evidence. Surface critical points and surface and volume streamlines were able to describe the main flow structures and their strong dependence with the flow conditions up to reach the structurally stable state. This state was associated with the pattern of the horn vortices, found on ranges from low to high Reynolds numbers and from incompressible to compressible regimes. In addition, different structural analysis techniques have been employed: Proper Orthogonal Decomposition (POD), Dynamic Mode Decomposition (DMD) and Fourier analysis. These techniques have been applied to the experimental and numerical data to extract flow structure information (i.e. modes and frequencies). Experimental and numerical modes are shown to be in good agreement. A dominant frequency associated with an instability of the leeward vortices has been identified in both, experimental and numerical results.
Condicionantes de la adherencia y anclaje en el refuerzo de muros de fábrica con elementos de fibras
Resumo:
Es cada vez más frecuente la rehabilitación de patrimonio construido, tanto de obras deterioradas como para la adecuación de obras existentes a nuevos usos o solicitaciones. Se ha considerado el estudio del refuerzo de obras de fábrica ya que constituyen un importante número dentro del patrimonio tanto de edificación como de obra civil (sistemas de muros de carga o en estructuras principales porticadas de acero u hormigón empleándose las fábricas como cerramiento o distribución con elementos autoportantes). A la hora de reparar o reforzar una estructura es importante realizar un análisis de las deficiencias, caracterización mecánica del elemento y solicitaciones presentes o posibles; en el apartado 1.3 del presente trabajo se refieren acciones de rehabilitación cuando lo que se precisa no es refuerzo estructural, así como las técnicas tradicionales más habituales para refuerzo de fábricas que suelen clasificarse según se trate de refuerzos exteriores o interiores. En los últimos años se ha adoptado el sistema de refuerzo de FRP, tecnología con origen en los refuerzos de hormigón tanto de elementos a flexión como de soportes. Estos refuerzos pueden ser de láminas adheridas a la fábrica soporte (SM), o de barras incluidas en rozas lineales (NSM). La elección de un sistema u otro depende de la necesidad de refuerzo y tipo de solicitación predominante, del acceso para colocación y de la exigencia de impacto visual. Una de las mayores limitaciones de los sistemas de refuerzo por FRP es que no suele movilizarse la resistencia del material de refuerzo, produciéndose previamente fallo en la interfase con el soporte con el consecuente despegue o deslaminación; dichos fallos pueden tener un origen local y propagarse a partir de una discontinuidad, por lo que es preciso un tratamiento cuidadoso de la superficie soporte, o bien como consecuencia de una insuficiente longitud de anclaje para la transferencia de los esfuerzos en la interfase. Se considera imprescindible una caracterización mecánica del elemento a reforzar. Es por ello que el trabajo presenta en el capítulo 2 métodos de cálculo de la fábrica soporte de distintas normativas y también una formulación alternativa que tiene en cuenta la fábrica histórica ya que su caracterización suele ser más complicada por la heterogeneidad y falta de clasificación de sus materiales, especialmente de los morteros. Una vez conocidos los parámetros resistentes de la fábrica soporte es posible diseñar el refuerzo; hasta la fecha existe escasa normativa de refuerzos de FRP para muros de fábrica, consistente en un protocolo propuesto por la ACI 440 7R-10 que carece de mejoras por tipo de anclaje y aporta valores muy conservadores de la eficacia del refuerzo. Como se ha indicado, la problemática principal de los refuerzos de FRP en muros es el modo de fallo que impide un aprovechamiento óptimo de las propiedades del material. Recientemente se están realizando estudios con distintos métodos de anclaje para estos refuerzos, con lo que se incremente la capacidad última y se mantenga el soporte ligado al refuerzo tras la rotura. Junto con sistemas de anclajes por prolongación del refuerzo (tanto para láminas como para barras) se han ensayado anclajes con llaves de cortante, barras embebidas, o anclajes mecánicos de acero o incluso de FRP. Este texto resume, en el capítulo 4, algunas de las campañas experimentales llevadas a cabo entre los años 2000 y 2013 con distintos anclajes. Se observan los parámetros fundamentales para medir la eficacia del anclajes como son: el modo de fallo, el incremento de resistencia, y los desplazamientos que permite observar la ductilidad del refuerzo; estos datos se analizan en función de la variación de: tipo de refuerzo incluyéndose el tipo de fibra y sistema de colocación, y tipo de anclaje. Existen también parámetros de diseño de los propios anclajes. En el caso de barras embebidas se resumen en diámetro y material de la barra, acabado superficial, dimensiones y forma de la roza, tipo de adhesivo. En el caso de anclajes de FRP tipo pasador la caracterización incluye: tipo de fibra, sistema de fabricación del anclajes y diámetro del mismo, radio de expansión del abanico, espaciamiento longitudinal de anclajes, número de filas de anclajes, número de láminas del refuerzo, longitud adherida tras el anclaje; es compleja la sistematización de resultados de los autores de las campañas expuestas ya que algunos de estos parámetros varían impidiendo la comparación. El capítulo 5 presenta los ensayos empleados para estas campañas de anclajes, distinguiéndose entre ensayos de modo I, tipo tracción directa o arrancamiento, que servirían para sistemas NSM o para cuantificar la resistencia individual de anclajes tipo pasador; ensayos de modo II, tipo corte simple, que se asemeja más a las condiciones de trabajo de los refuerzos. El presente texto se realiza con objeto de abrir una posible investigación sobre los anclajes tipo pasador, considerándose que junto con los sistemas de barra embebida son los que permiten una mayor versatilidad de diseño para los refuerzos de FRP y siendo su eficacia aún difícil de aislar por el número de parámetros de diseño. Rehabilitation of built heritage is becoming increasingly frequent, including repair of damaged works and conditioning for a new use or higher loads. In this work it has been considered the study of masonry wall reinforcement, as most buildings and civil works have load bearing walls or at least infilled masonry walls in concrete and steel structures. Before repairing or reinforcing an structure, it is important to analyse its deficiencies, its mechanical properties and both existing and potential loads; chapter 1, section 4 includes the most common rehabilitation methods when structural reinforcement is not needed, as well as traditional reinforcement techniques (internal and external reinforcement) In the last years the FRP reinforcement system has been adopted for masonry walls. FRP materials for reinforcement were initially used for concrete pillars and beams. FRP reinforcement includes two main techniques: surface mounted laminates (SM) and near surface mounted bars (NSM); one of them may be more accurate according to the need for reinforcement and main load, accessibility for installation and aesthetic requirements. One of the main constraints of FRP systems is not reaching maximum load for material due to premature debonding failure, which can be caused by surface irregularities so surface preparation is necessary. But debonding (or delamination for SM techniques) can also be a consequence of insufficient anchorage length or stress concentration. In order to provide an accurate mechanical characterisation of walls, chapter 2 summarises the calculation methods included in guidelines as well as alternative formulations for old masonry walls as historic wall properties are more complicated to obtain due to heterogeneity and data gaps (specially for mortars). The next step is designing reinforcement system; to date there are scarce regulations for walls reinforcement with FRP: ACI 440 7R-10 includes a protocol without considering the potential benefits provided by anchorage devices and with conservative values for reinforcement efficiency. As noted above, the main problem of FRP masonry walls reinforcement is failure mode. Recently, some authors have performed studies with different anchorage systems, finding that these systems are able to delay or prevent debonding . Studies include the following anchorage systems: Overlap, embedded bars, shear keys, shear restraint and fiber anchors. Chapter 4 briefly describes several experimental works between years 2000 and 2013, concerning different anchorage systems. The main parameters that measure the anchorage efficiency are: failure mode, failure load increase, displacements (in order to evaluate the ductility of the system); all these data points strongly depend on: reinforcement system, FRP fibers, anchorage system, and also on the specific anchorage parameters. Specific anchorage parameters are a function of the anchorage system used. The embedded bar system have design variables which can be identified as: bar diameter and material, surface finish, groove dimensions, and adhesive. In FRP anchorages (spikes) a complete design characterisation should include: type of fiber, manufacturing process, diameter, fan orientation, anchor splay width, anchor longitudinal spacing and number or rows, number or FRP sheet plies, bonded length beyond anchorage devices,...the parameters considered differ from some authors to others, so the comparison of results is quite complicated. Chapter 5 includes the most common tests used in experimental investigations on bond-behaviour and anchorage characterisation: direct shear tests (with variations single-shear and double-shear), pullout tests and bending tests. Each of them may be used according to the data needed. The purpose of this text is to promote further investigation of anchor spikes, accepting that both FRP anchors and embedded bars are the most versatile anchorage systems of FRP reinforcement and considering that to date its efficiency cannot be evaluated as there are too many design uncertainties.