884 resultados para Artificial satellites in telecommunications
Resumo:
During the last years the use of tracking cameras for SLR observations became less important due to the high accuracy of the predicted orbits. Upcoming new targets like satellites in eccentric orbits and space debris objects, however, require tracking cameras again. In 2013 the interline CCD camera was replaced at the Zimmerwald Observatory with a so called scientific CMOS camera. This technology promises a better performance for this application than all kinds of CCD cameras. After the comparison of the different technologies the focus will be on the integration in the Zimmerwald SLR system.
Resumo:
The contribution of Starlette, Stella, and AJI-SAI is currently neglected when defining the International Terrestrial Reference Frame, despite a long time series of precise SLR observations and a huge amount of available data. The inferior accuracy of the orbits of low orbiting geodetic satellites is the main reason for this neglect. The Analysis Centers of the International Laser Ranging Service (ILRS ACs) do, however, consider including low orbiting geodetic satellites for deriving the standard ILRS products based on LAGEOS and Etalon satellites, instead of the sparsely observed, and thus, virtually negligible Etalons. We process ten years of SLR observations to Starlette, Stella, AJISAI, and LAGEOS and we assess the impact of these Low Earth Orbiting (LEO) SLR satellites on the SLR-derived parameters. We study different orbit parameterizations, in particular different arc lengths and the impact of pseudo-stochastic pulses and dynamical orbit parameters on the quality of the solutions. We found that the repeatability of the East and North components of station coordinates, the quality of polar coordinates, and the scale estimates of the reference are improved when combining LAGEOS with low orbiting SLR satellites. In the multi-SLR solutions, the scale and the Z component of geocenter coordinates are less affected by deficiencies in solar radiation pressure modeling than in the LAGEOS-1/2 solutions, due to substantially reduced correlations between the Z geocenter coordinate and empirical orbit parameters. Eventually, we found that the standard values of Center-of-mass corrections (CoM) for geodetic LEO satellites are not valid for the currently operating SLR systems. The variations of station-dependent differential range biases reach 52 and 25 mm for AJISAI and Starlette/Stella, respectively, which is why estimating station dependent range biases or using station-dependent CoM, instead of one value for all SLR stations, is strongly recommended.This clearly indicates that the ILRS effort to produce CoM corrections for each satellite, which are site-specific and depend on the system characteristics at the time of tracking,is very important and needs to be implemented in the SLR data analysis.
Resumo:
Con el objeto de ajustar un método de evaluación a campo para facilitar la selección de clones de ajo (Allium sativum L.) con resistencia a Penicillium allii, se realizó un ensayo replicado en el cual se midió la respuesta de tres clones experimentales a la infección, en dos épocas de plantación. Los tratamientos incluyeron combinaciones de presencia o ausencia de: a) desinfección de la "semilla", b) heridas artificiales en los bulbillos, c) inoculación artificial. Los bulbillos con la hoja envolvente se desinfectaron con una solución diluida de hipoclorito de sodio. La inoculación se realizó mediante la inmersión en una solución de 106 esporas•ml-1. Las heridas se realizaron con una lanceta (blood lancet). Los bulbillos se incubaron en cámara húmeda durante 24 horas a 20 °C, antes de plantación. Las variables respuestas computadas fueron las siguientes: número de plantas muertas, y vivas con síntomas y sin síntomas, a los 152 días de plantación en la primera época y 118 días en la segunda; número de bulbos por calibres y rendimiento a cosecha. La información obtenida se analizó a través de correspondencia simple, diferencia de proporciones y análisis paramétricos. Se detectaron mayores diferencias entre los tratamientos en la tasa de sobrevivencia y en la proporción de calibres comerciales en la época tardía. No se observaron diferencias (p < 0,05) del rendimiento en la plantación temprana. La herida fue determinante en el ingreso del patógeno. Los tratamientos quedaron limitados a un testigo: desinfectado, no inoculado y sin herida, y a un tratamiento: desinfectado, con inoculación y herida. Con respecto a la época, resultó conveniente la evaluación en plantaciones tardías porque se expresan mejor las diferencias entre los tratamientos.
Resumo:
En la tesis se consideran los procesos de cambio conceptual, teórico y metodológico que modelaron el desarrollo de los estudios sociales de la ciencia desde su emergencia hasta la actualidad, con el objeto de analizar los alcances y límites de las perspectivas humanistas y poshumanistas en la comprensión del vínculo "humano-no humano". Los estudios sociales de la ciencia conforman un campo marginal tanto dentro de los estudios metacientíficos como de la disciplina que les dio origen: la sociología. Si bien en las últimas décadas éstos han dado lugar a un significativo progreso en la comprensión cualitativa y cuantitativa de la ciencia y la tecnología, al responder primordialmente a la inquietud empírico-comparativa de programas de investigación de corte institucionalista han tendido a relegar de sus agendas de investigación el análisis epistemológico de los modelos explicativos considerados. En este sentido, en su afán de dar cuenta del carácter social de la ciencia apenas si han reparado en los nexos que pueden establecerse entre la explicación social de la ciencia y la explicación científica de "lo social". Con el objeto de atender a ello la tesis analiza las implicancias epistemológicas, metodológicas y ontológicas del estudio social de la ciencia considerando a la relación "humano-máquina" o "humano-no humano" como un hilo de Ariadna en la identificación de rupturas y continuidades en la consideración del vínculo "ciencia-sociedad". Desde esta perspectiva se estudia la dinámica de cambio conceptual, teórico y/o metodológico que dio lugar a la emergencia y desarrollo del estudio social de la ciencia en relación con aquella que modeló al estudio científico de "lo social", se identifican los cambios epistemológicos, ontológicos y metodológicos que configuraron a la dimensión no humana como un tópico relevante, cuando no ineludible, en la explicación social de la ciencia, se examinan las implicancias de la incorporación de los objetos naturales y/o tecnológicos a los modelos explicativos del estudio social de la ciencia en el contexto de la crítica poshumanista a las teorías de la acción que han asumido al sujeto como epicentro del análisis, y se analiza el impacto de la mencionada crítica en términos de un reordenamiento de los vínculos entre el estudio social de la ciencia y el estudio científico de "lo social". De este modo se ofrece una faceta de los estudios sociales de la ciencia inadvertida por buena parte de la literatura especializada, más atenta a la confrontación de imágenes sociológicas y filosóficas de la ciencia en el contexto de la denominada "guerra de las ciencias" que a sus implicancias epistemológicas para el estudio científico de "lo social". Enfatizando así el anclaje disciplinar del estudio social de la ciencia no se suscribe una visión "internalista" del progreso epistémico, sino que, por el contrario, se sugiere que la simultánea consideración de factores disciplinares y extra disciplinares resulta una estrategia tan fructífera como innovadora para analizar un campo que, al extender el dominio de la explicación social al ámbito de los fenómenos físico-naturales, ha dado lugar a uno de los más complejos casos de interacción disciplinar.
Resumo:
En la tesis se consideran los procesos de cambio conceptual, teórico y metodológico que modelaron el desarrollo de los estudios sociales de la ciencia desde su emergencia hasta la actualidad, con el objeto de analizar los alcances y límites de las perspectivas humanistas y poshumanistas en la comprensión del vínculo "humano-no humano". Los estudios sociales de la ciencia conforman un campo marginal tanto dentro de los estudios metacientíficos como de la disciplina que les dio origen: la sociología. Si bien en las últimas décadas éstos han dado lugar a un significativo progreso en la comprensión cualitativa y cuantitativa de la ciencia y la tecnología, al responder primordialmente a la inquietud empírico-comparativa de programas de investigación de corte institucionalista han tendido a relegar de sus agendas de investigación el análisis epistemológico de los modelos explicativos considerados. En este sentido, en su afán de dar cuenta del carácter social de la ciencia apenas si han reparado en los nexos que pueden establecerse entre la explicación social de la ciencia y la explicación científica de "lo social". Con el objeto de atender a ello la tesis analiza las implicancias epistemológicas, metodológicas y ontológicas del estudio social de la ciencia considerando a la relación "humano-máquina" o "humano-no humano" como un hilo de Ariadna en la identificación de rupturas y continuidades en la consideración del vínculo "ciencia-sociedad". Desde esta perspectiva se estudia la dinámica de cambio conceptual, teórico y/o metodológico que dio lugar a la emergencia y desarrollo del estudio social de la ciencia en relación con aquella que modeló al estudio científico de "lo social", se identifican los cambios epistemológicos, ontológicos y metodológicos que configuraron a la dimensión no humana como un tópico relevante, cuando no ineludible, en la explicación social de la ciencia, se examinan las implicancias de la incorporación de los objetos naturales y/o tecnológicos a los modelos explicativos del estudio social de la ciencia en el contexto de la crítica poshumanista a las teorías de la acción que han asumido al sujeto como epicentro del análisis, y se analiza el impacto de la mencionada crítica en términos de un reordenamiento de los vínculos entre el estudio social de la ciencia y el estudio científico de "lo social". De este modo se ofrece una faceta de los estudios sociales de la ciencia inadvertida por buena parte de la literatura especializada, más atenta a la confrontación de imágenes sociológicas y filosóficas de la ciencia en el contexto de la denominada "guerra de las ciencias" que a sus implicancias epistemológicas para el estudio científico de "lo social". Enfatizando así el anclaje disciplinar del estudio social de la ciencia no se suscribe una visión "internalista" del progreso epistémico, sino que, por el contrario, se sugiere que la simultánea consideración de factores disciplinares y extra disciplinares resulta una estrategia tan fructífera como innovadora para analizar un campo que, al extender el dominio de la explicación social al ámbito de los fenómenos físico-naturales, ha dado lugar a uno de los más complejos casos de interacción disciplinar.
Resumo:
En la tesis se consideran los procesos de cambio conceptual, teórico y metodológico que modelaron el desarrollo de los estudios sociales de la ciencia desde su emergencia hasta la actualidad, con el objeto de analizar los alcances y límites de las perspectivas humanistas y poshumanistas en la comprensión del vínculo "humano-no humano". Los estudios sociales de la ciencia conforman un campo marginal tanto dentro de los estudios metacientíficos como de la disciplina que les dio origen: la sociología. Si bien en las últimas décadas éstos han dado lugar a un significativo progreso en la comprensión cualitativa y cuantitativa de la ciencia y la tecnología, al responder primordialmente a la inquietud empírico-comparativa de programas de investigación de corte institucionalista han tendido a relegar de sus agendas de investigación el análisis epistemológico de los modelos explicativos considerados. En este sentido, en su afán de dar cuenta del carácter social de la ciencia apenas si han reparado en los nexos que pueden establecerse entre la explicación social de la ciencia y la explicación científica de "lo social". Con el objeto de atender a ello la tesis analiza las implicancias epistemológicas, metodológicas y ontológicas del estudio social de la ciencia considerando a la relación "humano-máquina" o "humano-no humano" como un hilo de Ariadna en la identificación de rupturas y continuidades en la consideración del vínculo "ciencia-sociedad". Desde esta perspectiva se estudia la dinámica de cambio conceptual, teórico y/o metodológico que dio lugar a la emergencia y desarrollo del estudio social de la ciencia en relación con aquella que modeló al estudio científico de "lo social", se identifican los cambios epistemológicos, ontológicos y metodológicos que configuraron a la dimensión no humana como un tópico relevante, cuando no ineludible, en la explicación social de la ciencia, se examinan las implicancias de la incorporación de los objetos naturales y/o tecnológicos a los modelos explicativos del estudio social de la ciencia en el contexto de la crítica poshumanista a las teorías de la acción que han asumido al sujeto como epicentro del análisis, y se analiza el impacto de la mencionada crítica en términos de un reordenamiento de los vínculos entre el estudio social de la ciencia y el estudio científico de "lo social". De este modo se ofrece una faceta de los estudios sociales de la ciencia inadvertida por buena parte de la literatura especializada, más atenta a la confrontación de imágenes sociológicas y filosóficas de la ciencia en el contexto de la denominada "guerra de las ciencias" que a sus implicancias epistemológicas para el estudio científico de "lo social". Enfatizando así el anclaje disciplinar del estudio social de la ciencia no se suscribe una visión "internalista" del progreso epistémico, sino que, por el contrario, se sugiere que la simultánea consideración de factores disciplinares y extra disciplinares resulta una estrategia tan fructífera como innovadora para analizar un campo que, al extender el dominio de la explicación social al ámbito de los fenómenos físico-naturales, ha dado lugar a uno de los más complejos casos de interacción disciplinar.
Resumo:
African dust outbreaks are the result of complex interactions between the land, atmosphere, and oceans, and only recently has a large body of work begun to emerge that aims to understand the controls on-and impacts of-African dust. At the same time, long-term records of dust outbreaks are either inferred from visibility data from weather stations or confined to a few in situ observational sites. Satellites provide the best opportunity for studying the large-scale characteristics of dust storms, but reliable records of dust are generally on the scale of a decade or less. Here the authors develop a simple model for using modern and historical data from meteorological satellites, in conjunction with a proxy record for atmospheric dust, to extend satellite-retrieved dust optical depth over the northern tropical Atlantic Ocean from 1955 to 2008. The resultant 54-yr record of dust has a spatial resolution of 1° and a monthly temporal resolution. From analysis of the historical dust data, monthly tropical northern Atlantic dust cover is bimodal, has a strong annual cycle, peaked in the early 1980s, and shows minimums in dustiness during the beginning and end of the record. These dust optical depth estimates are used to calculate radiative forcing and heating rates from the surface through the top of the atmosphere over the last half century. Radiative transfer simulations show a large net negative dust forcing from the surface through the top of the atmosphere, also with a distinct annual cycle, and mean tropical Atlantic monthly values of the surface forcing range from -3 to -9 W/m**2. Since the surface forcing is roughly a factor of 3 larger in magnitude than the top-of-the-atmosphere forcing, there is also a positive heating rate of the midtroposphere by dust.
Resumo:
An analysis of a stretch of coastline shows multiple alterations through environmental climate actions. The narrow, fragile line displays singularities due to three basic causes. The first is the discontinuity in feed or localised loss of solid coastal material. Called massics, their simplest examples are deltas and undersea canyons. The second is due to a brusque change in the alignment of the shoreline’s edge, headlands, groins, harbour and defence works. Given the name of geometric singularities, their simplest uses are artificial beaches in the shelter of a straight groin or spits. The third is due to littoral dynamics, emerged or submerged obstacles which diffract and refract wave action, causing a change in the sea level’s super-elevation in breaker areas. Called dynamics, the simplest examples are salients, tombolos and shells. Discussion of the causes giving rise to variations in the coastline and formation of singularities is the raison d’être of investigation, using actual cases to check the suitability of the classification proposed, the tangential or differential action of waves on the coastal landscape in addition to possible simple, compound and complex shapes detected in nature, both in erosion and deposit processes
Resumo:
DynaLearn (http://www.DynaLearn.eu) develops a cognitive artefact that engages learners in an active learning by modelling process to develop conceptual system knowledge. Learners create external representations using diagrams. The diagrams capture conceptual knowledge using the Garp3 Qualitative Reasoning (QR) formalism [2]. The expressions can be simulated, confronting learners with the logical consequences thereof. To further aid learners, DynaLearn employs a sequence of knowledge representations (Learning Spaces, LS), with increasing complexity in terms of the modelling ingredients a learner can use [1]. An online repository contains QR models created by experts/teachers and learners. The server runs semantic services [4] to generate feedback at the request of learners via the workbench. The feedback is communicated to the learner via a set of virtual characters, each having its own competence [3]. A specific feedback thus incorporates three aspects: content, character appearance, and a didactic setting (e.g. Quiz mode). In the interactive event we will demonstrate the latest achievements of the DynaLearn project. First, the 6 learning spaces for learners to work with. Second, the generation of feedback relevant to the individual needs of a learner using Semantic Web technology. Third, the verbalization of the feedback via different animated virtual characters, notably: Basic help, Critic, Recommender, Quizmaster & Teachable agen
Resumo:
La estrategia i2010 de la UE tiene como objetivo garantizar el liderazgo europeo en materia de TIC y poner los beneficios de la Sociedad de la Información al servicio de la economía, la sociedad y la calidad de vida personal, teniendo presente que los éxitos de Europa hasta la fecha se han basado en favorecer la competencia leal en los mercados de las telecomunicaciones y crear un mercado sin fronteras para contenidos y medios de comunicación digitales. En esta línea, la Comisión Europea ha establecido que los distintos estados miembros deben contribuir activamente al desarrollo y uso seguro de los servicios telemáticos entre sus ciudadanos. Más concretamente, atribuye a las Administraciones Públicas, tanto a nivel nacional, regional como local, un papel dinamizador de la Sociedad de la Información que les obliga a ofrecer paulatinamente todos los actos administrativos a los ciudadanos a través de Internet. Como primer paso para el uso seguro de los servicios telemáticos que ofrecen las instituciones públicas se hace preciso dotar a los ciudadanos de una identidad digital que les permita identificarse ante un Proveedor de Servicio o ante otros ciudadanos de manera inequívoca. Por esta razón, la mayoría de países europeos – y otros en el resto del mundo – están promoviendo, sistemas fiables de gestión de identidad electrónica (eIDM), de tal manera que los ciudadanos, las empresas y departamentos gubernamentales (incluso en Estados miembros diferentes) pueden identificar y certificar sus operaciones con precisión, rapidez y sencillez. Sin embargo, la gestión de esta identidad por las Administraciones Públicas supone un importante desafío, acentuado cuando se hace necesaria la interoperabilidad entre Administraciones de diferentes países, puesto que personas y entidades tienen credenciales de identificación diferentes en función de su propio marco jurídico nacional. Consciente del problema, en la Unión Europea se han puesto en marcha una serie de proyectos con el objetivo de conseguir la interoperabilidad de los eIDMs entre las instituciones públicas de diferentes Estados miembros. A pesar de ello, las soluciones adoptadas hasta la fecha son insuficientes porque no prevén todos los posibles casos de interacción del usuario con las instituciones. En concreto, no tienen en cuenta un aspecto muy importante que se ofrece en los distintos sistemas jurídicos nacionales, a saber, la delegación de la identidad, mediante la cual un ciudadano puede autorizar a otro para que actúe en su nombre para acceder a determinados servicios prestados por las instituciones públicas. En esta tesis se realizan un conjunto de aportaciones que dan solución a distintos aspectos de los problemas planteados y que, de forma conjunta, permiten la interoperabilidad y la delegación de identidad en determinados Sistemas de Gestión de Identidad aplicados al entorno de las Administraciones Públicas. En el caso de la delegación, se ha definido un sistema de delegación dinámica de identidad entre dos entidades genéricas que permite solucionar el problema del acceso delegado a los servicios telemáticos ofrecidos por las Administraciones Públicas. La solución propuesta se basa en la generación de un token de delegación, constituido a partir de un Certificado Proxy, que permite a la entidad que delega establecer la delegación de identidad en otra entidad en base a un subconjunto de sus atributos como delegador, estableciendo además, en el propio token de delegación, restricciones en el conjunto de servicios accesibles a la entidad delegada y el tiempo de validez de la delegación. Adicionalmente, se presentan los mecanismos necesarios tanto para poder revocar un token de delegación como para comprobar sin un token de delegación ha sido o no revocado. Para ello se propone una solución para la identificación unívoca de tokens de delegación y la creación de una nueva entidad denominada Autoridad de Revocación de Tokens de Delegación. Entre las características del sistema de delegación propuesto destaca el que es lo suficientemente seguro como para ser utilizado en el entorno de la Administración Pública, que no requiere el uso de mecanismos off‐line para la generación de la delegación y que se puede realizar la delegación de forma instantánea y sin la necesidad de trámites complejos o la participación de un elevado número de entidades. Adicionalmente, el token de delegación propuesto es perfectamente integrable en las infraestructura de clave pública actual lo que hace que, dado que gran parte de las Administraciones Públicas europeas basan sus sistemas de identidad digital en el uso de la PKI y certificados de identidad X.509, la solución pueda ser puesta en marcha en un entorno real sin necesidad de grandes cambios o modificaciones de comportamiento. En lo referente a la interoperabilidad, se realiza un análisis exhaustivo y la correspondiente evaluación de las principales propuestas de Sistemas de Gestión de Identidad orientados a conseguir la interoperabilidad realizadas hasta la fecha en el marco de la Unión Europea y se propone, a alto nivel, una arquitectura de interoperabilidad para la gestión de identidad en las Administraciones Públicas. Dicha arquitectura es lo suficientemente genérica como para poder ser aplicada tanto en el entorno pan‐Europeo como en los entornos nacionales, autonómicos y locales, de tal forma que la interoperabilidad en la gestión de la identidad esté garantizada en todos los niveles de la Administración Pública. Por último, mediante la integración de la solución de delegación dinámica de identidad y la arquitectura de interoperabilidad propuestas se presenta una solución al problema de la delegación en un escenario pan‐Europeo de gestión de identidad, dando lugar a una arquitectura global de interoperabilidad pan‐Europea con soporte a la delegación de identidad. SUMMARY The i2010 European Union Plan aims to ensure European leadership in ICT and to promote the positive contribution that information and communication technologies can make to the economic, social and personal quality of life, bearing in mind that, to date, success in Europe has been based on promoting fair competition in telecommunications markets and on creating a borderless market for contents and digital media. In this line, the European Commission has established that the different member states should contribute actively to the development and secure use of telematic services among their citizens. More specifically, it is attributed to national, regional and local Public Administrations to have a supportive role of the Information Society, requiring them to gradually provide the citizens with Internet‐based access to all administrative procedures acts. As a first step for the secure use of telematic services offered by public institutions, it is necessary to provide the citizens with a digital identity to enable them to identify themselves unequivocally to a Service Provider or to other citizens. For this reason, most European countries ‐ and others in the rest of the world ‐ are promoting reliable systems for managing electronic identity (eIDM), so that citizens, businesses and government departments (even in different Member States) can identify and certify their operations with precision, speed and simplicity. However, the identity management by Public Administrations is a major challenge that becomes more difficult when interoperability between administrations of different countries is needed, due to the fact that individuals and entities have different identification credentials according to their own national legal framework. Aware of the problem, the European Union has launched a series of projects with the aim of achieving interoperability of eIDMs between public institutions of different Member States. However, the solutions adopted to date are insufficient because they do not foresee all possible cases of user interaction with the institutions. In particular, solutions do not take into account a very important aspect that is offered in different national legal systems, namely, the delegation of identity, by which a citizen can authorize another to act on his/her behalf to access certain services provided by public institutions. In this thesis a collection of contributions that provide solution to different aspects of the aforementioned problems are carried out. The solutions, in global, enable interoperability and identity delegation in some of the Identity Management Systems applied to Public Administration environment. In the case of delegation, a dynamic identity delegation system between generic entities is defined. This system makes it possible to solve the problem of delegated access to telematic services offered by Public Administrations. The proposed solution is based on the generation of a piece of information called delegation token. This delegation token, derived from a Proxy Certificate, allows the establishment of identity delegation by an entity that delegates (delegator) in other entity (delegatee) making use of a subset of delegator attributes. It also establishes restrictions on services that can be used by the delegated entity and the expiry date of delegation. In addition to this, the mechanisms necessary to revoke and check the revocation status of a delegation token are presented. To do this, a solution to univocally identify delegation tokens and the creation of a completely new entity, called Token Delegation Revocation Authority, are proposed. The most remarkable characteristics of the proposed delegation system are its security, enough for it to be used in the Public Administration environment, the fact that it does not require off‐line processes in order to generate the delegation, and the possibility of performing the delegation instantaneously and without neither complex processes nor the intervention of a large number of entities. The proposed delegation token can be completely incorporated into current Public Key Infrastructure (PKI). Thus, since most of the European Public Administrations base their digital identity systems on PKI and X.509 identity certificates, the solution can be adopted in a real environment without great changes or performance modifications. Regarding interoperability, an exhaustive analysis and evaluation of most significant proposals on Identity Management Systems that aim to achieve interoperability carried out in the European Union framework until now are performed. A high level identity management interoperability architecture for Public Administrations is also proposed. This architecture is sufficiently generic to be applied to both pan‐European environment and national, regional or local environments, thus interoperability in identity management at all Public Administration levels is guaranteed. Finally, through the integration of the proposed dynamic identity delegation solution and the high level interoperability architecture, a solution to the problem of identity delegation in a pan‐European identity management environment is suggested, leading to a pan‐European global interoperability architecture with identity delegation support.
Resumo:
La mayoría de las estructuras de hormigón pretensadas construidas en los últimos 50 años han demostrado una excelente durabilidad cuando su construcción se realiza atendiendo las recomendaciones de un buen diseño así como una buena ejecución y puesta en obra de la estructura. Este hecho se debe en gran parte al temor que despierta el fenómeno de la corrosión bajo tensión típico de las armaduras de acero de alta resistencia. Menos atención se ha prestado a la susceptibilidad a la corrosión bajo tensión de los anclajes de postensado, posiblemente debido a que se han reportado pocos casos de fallos catastróficos. El concepto de Tolerancia al Daño y la Mecánica de la Fractura en estructuras de Ingeniería Civil ha empezado a incorporarse recientemente en algunas normas de diseño y cálculo de estructuras metálicas, sin embargo, aún está lejos de ser asimilado y empleado habitualmente por los ingenieros en sus cálculos cuando la ocasión lo requiere. Este desconocimiento de los aspectos relacionados con la Tolerancia al Daño genera importantes gastos de mantenimiento y reparación. En este trabajo se ha estudiado la aplicabilidad de los conceptos de la Mecánica de la Fractura a los componentes de los sistemas de postensado empleados en ingeniería civil, empleándolo para analizar la susceptibilidad de las armaduras activas frente a la corrosión bajo tensiones y a la pérdida de capacidad portante de las cabezas de anclajes de postensado debido a la presencia de defectos. Con este objeto se han combinado tanto técnicas experimentales como numéricas. Los defectos superficiales en los alambres de pretensado no se presentan de manera aislada si no que existe una cierta continuidad en la dirección axial así como un elevado número de defectos. Por este motivo se ha optado por un enfoque estadístico, que es más apropiado que el determinístico. El empleo de modelos estadísticos basados en la teoría de valores extremos ha permitido caracterizar el estado superficial en alambres de 5,2 mm de diámetro. Por otro lado la susceptibilidad del alambre frente a la corrosión bajo tensión ha sido evaluada mediante la realización de una campaña de ensayos de acuerdo con la actual normativa que ha permitido caracterizar estadísticamente su comportamiento. A la vista de los resultados ha sido posible evaluar como los parámetros que definen el estado superficial del alambre pueden determinar la durabilidad de la armadura atendiendo a su resistencia frente a la corrosión bajo tensión, evaluada mediante los ensayos que especifica la normativa. En el caso de las cabezas de anclaje de tendones de pretensado, los defectos se presentan de manera aislada y tienen su origen en marcas, arañazos o picaduras de corrosión que pueden producirse durante el proceso de fabricación, transporte, manipulación o puesta en obra. Dada la naturaleza de los defectos, el enfoque determinístico es más apropiado que el estadístico. La evaluación de la importancia de un defecto en un elemento estructural requiere la estimación de la solicitación local que genera el defecto, que permite conocer si el defecto es crítico o si puede llegar a serlo, si es que progresa con el tiempo (por fatiga, corrosión, una combinación de ambas, etc.). En este trabajo los defectos han sido idealizados como grietas, de manera que el análisis quedara del lado de la seguridad. La evaluación de la solicitación local del defecto ha sido calculada mediante el empleo de modelos de elementos finitos de la cabeza de anclaje que simulan las condiciones de trabajo reales de la cabeza de anclaje durante su vida útil. A partir de estos modelos numéricos se ha analizado la influencia en la carga de rotura del anclaje de diversos factores como la geometría del anclaje, las condiciones del apoyo, el material del anclaje, el tamaño del defecto su forma y su posición. Los resultados del análisis numérico han sido contrastados satisfactoriamente mediante la realización de una campaña experimental de modelos a escala de cabezas de anclaje de Polimetil-metacrilato en los que artificialmente se han introducido defectos de diversos tamaños y en distintas posiciones. ABSTRACT Most of the prestressed concrete structures built in the last 50 years have demonstrated an excellent durability when they are constructed in accordance with the rules of good design, detailing and execution. This is particularly true with respect to the feared stress corrosion cracking, which is typical of high strength prestressing steel wires. Less attention, however, has been paid to the stress corrosion cracking susceptibility of anchorages for steel tendons for prestressing concrete, probably due to the low number of reported failure cases. Damage tolerance and fracture mechanics concepts in civil engineering structures have recently started to be incorporated in some design and calculation rules for metallic structures, however it is still far from being assimilated and used by civil engineers in their calculations on a regular basis. This limited knowledge of the damage tolerance basis could lead to significant repair and maintenance costs. This work deals with the applicability of fracture mechanics and damage tolerance concepts to the components of prestressed systems, which are used in civil engineering. Such concepts have been applied to assess the susceptibility of the prestressing steel wires to stress corrosion cracking and the reduction of load bearing capability of anchorage devices due to the presence of defects. For this purpose a combination of experimental work and numerical techniques have been performed. Surface defects in prestressing steel wires are not shown alone, though a certain degree of continuity in the axial direction exist. A significant number of such defects is also observed. Hence a statistical approach was used, which is assumed to be more appropriate than the deterministic approach. The use of statistical methods based in extreme value theories has allowed the characterising of the surface condition of 5.2 mm-diameter wires. On the other hand the stress corrosion cracking susceptibility of the wire has been assessed by means of an experimental testing program in line with the current regulations, which has allowed statistical characterisasion of their performances against stress corrosion cracking. In the light of the test results, it has been possible to evaluate how the surface condition parameters could determine the durability of the active metal armour regarding to its resistance against stress corrosion cracking assessed by means of the current testing regulations. In the case of anchorage devices for steel tendons for prestressing concrete, the damage is presented as point defects originating from dents, scratches or corrosion pits that could be produced during the manufacturing proccess, transport, handling, assembly or use. Due to the nature of these defects, in this case the deterministic approach is more appropriate than the statistical approach. The assessment of the relevancy of defect in a structural component requires the computation of the stress intensity factors, which in turn allow the evaluation of whether the size defect is critical or could become critical with the progress of time (due to fatigue, corrosion or a combination of both effects). In this work the damage is idealised as tiny cracks, a conservative hypothesis. The stress intensity factors have been calculated by means of finite element models of the anchorage representing the real working conditions during its service life. These numeric models were used to assess the impact of some factors on the rupture load of the anchorage, such the anchorage geometry, material, support conditions, defect size, shape and its location. The results from the numerical analysis have been succesfully correlated against the results of the experimental testing program of scaled models of the anchorages in poly-methil methacrylate in which artificial damage in several sizes and locations were introduced.
Resumo:
This work explores the automatic recognition of physical activity intensity patterns from multi-axial accelerometry and heart rate signals. Data collection was carried out in free-living conditions and in three controlled gymnasium circuits, for a total amount of 179.80 h of data divided into: sedentary situations (65.5%), light-to-moderate activity (17.6%) and vigorous exercise (16.9%). The proposed machine learning algorithms comprise the following steps: time-domain feature definition, standardization and PCA projection, unsupervised clustering (by k-means and GMM) and a HMM to account for long-term temporal trends. Performance was evaluated by 30 runs of a 10-fold cross-validation. Both k-means and GMM-based approaches yielded high overall accuracy (86.97% and 85.03%, respectively) and, given the imbalance of the dataset, meritorious F-measures (up to 77.88%) for non-sedentary cases. Classification errors tended to be concentrated around transients, what constrains their practical impact. Hence, we consider our proposal to be suitable for 24 h-based monitoring of physical activity in ambulatory scenarios and a first step towards intensity-specific energy expenditure estimators
Resumo:
Este documento trata de la instalación del sistema de provisión de abonados “Provisioning Gateway” (PG) para el proyecto Machine to Machine (M2M) de Ericsson, una tecnología que permite definir los abonados o dispositivos serán usados en las comunicaciones máquina a máquina. El proyecto ha sido realizado en Ericsson para una compañía de telefonía de España. Se hablará de la evolución que han sufrido las redes de comunicaciones en los últimos años y las aplicaciones que surgen a partir de ellas. Se hará especial hincapié en la tecnología de red más utilizada hoy en día, el 3G, y en su sucesora, el 4G, detallando las novedades que incorpora. Después se describirá el trabajo realizado por el ingeniero de Ericsson durante la instalación del PG (Provisioning Gateway), un nodo de la red a través del cual la compañía telefónica da de alta a los abonados, modifica sus parámetros o los elimina de la base de datos. Se explicarán las distintas fases de las que se compone la instalación, tanto la parte hardware como la parte software y por último las pruebas de verificación con el cliente. Por último se darán algunas conclusiones sobre el trabajo realizado y los conocimientos adquiridos. ABSTRACT This document describes the installation of Provisioning Gateway system (PG) for Machine to Machine (M2M) project in Ericsson, which is a technology that allows companies to define the subscribers that will be used of machine to Machine communications. This project has been developed in Ericsson for a Spanish telecommunication company. The evolution of telecommunication networks is going to be introduced, describing al the services developed in parallel. 3G technology will be describer in a deeper way because it is the most used technology nowadays and 4G because it represents the future in telecommunications. Después se describirá el trabajo realizado por el ingeniero de Ericsson durante la instalación del PG (Provisioning Gateway), un nodo de la red a través del cuál la compañía telefónica da de alta a los abonados, modifica sus parámetros o los elimina de la base de datos. Se explicarán las distintas fases de las que se compone la instalación, tanto la parte hardware como la parte software y por último las pruebas de verificación con el cliente. Furthermore, this document shows the installation process of PG system made by the Ericsson´s engineer. Telecommunication companies use PG for creating, defining and deleting subscribers from the database. The different steps of the installation procedure will be described among this document, talking about hardware and software installation and the final acceptant test. Finally, some conclusions about the work done and experience learned will be exposed.
Resumo:
El objetivo del presente proyecto es proporcionar una actividad de la pronunciación y repaso de vocabulario en lengua inglesa para la plataforma Moodle alojada en la página web de Integrated Language Learning Lab (ILLLab). La página web ILLLab tiene el objetivo de que los alumnos de la EUIT de Telecomunicación de la UPM con un nivel de inglés A2 según el Marco Común Europeo de Referencia para las Lenguas (MCERL), puedan trabajar de manera autónoma para avanzar hacia el nivel B2 en inglés. La UPM exige estos conocimientos de nivel de inglés para cursar la asignatura English for Professional and Academic Communication (EPAC) de carácter obligatorio e impartida en el séptimo semestre del Grado en Ingeniería de Telecomunicaciones. Asimismo, se persigue abordar el problema de las escasas actividades de expresión oral de las plataformas de autoaprendizaje se dedican a la formación en idiomas y, más concretamente, al inglés. Con ese fin, se proporciona una herramienta basada en sistemas de reconocimiento de voz para que el usuario practique la pronunciación de las palabras inglesas. En el primer capítulo del trabajo se introduce la aplicación Traffic Lights, explicando sus orígenes y en qué consiste. En el segundo capítulo se abordan aspectos teóricos relacionados con el reconocimiento de voz y se comenta sus funciones principales y las aplicaciones actuales para las que se usa. El tercer capítulo ofrece una explicación detallada de los diferentes lenguajes utilizados para la realización del proyecto, así como de su código desarrollado. En el cuarto capítulo se plantea un manual de usuario de la aplicación, exponiendo al usuario cómo funciona la aplicación y un ejemplo de uso. Además, se añade varias secciones para el administrador de la aplicación, en las que se especifica cómo agregar nuevas palabras en la base de datos y hacer cambios en el tiempo estimado que el usuario tiene para acabar una partida del juego. ABSTRACT: The objective of the present project is to provide an activity of pronunciation and vocabulary review in English language within the platform Moodle hosted at the Integrated Language Learning Lab (ILLLab) website. The ILLLab website has the aim to provide students at the EUIT of Telecommunication in the UPM with activities to develop their A2 level according to the Common European Framework of Reference for Languages (CEFR). In the platform, students can work independently to advance towards a B2 level in English. The UPM requires this level of English proficiency for enrolling in the compulsory subject English for Professional and Academic Communication (EPAC) taught in the seventh semester of the Degree in Telecommunications Engineering. Likewise, this project tries to provide alternatives to solve the problem of scarce speaking activities included in the learning platforms that offer language courses, and specifically, English language courses. For this purpose, it provides a tool based on speech recognition systems so that the user can practice the pronunciation of English words. The first chapter of the project introduces the application Traffic Lights, explaining its origins and what it is. The second chapter deals with theoretical aspects related with speech recognition and comments their main features and current applications for which it is generally used. The third chapter provides a detailed explanation of the different programming languages used for the implementation of the project and reviews its code development. The fourth chapter presents an application user manual, exposing to the user how the application works and an example of use. Also, several sections are added addressed to the application administrator, which specify how to add new words to the database and how to make changes in the original stings as could be the estimated time that the user has to finish the game.
Resumo:
Laser Diodes have been employed many times as light sources on different kinds of optical sensors. Their main function in these applications was the emission of an optical radiation impinging onto a certain object and, according to the characteristics of the reflected light, some information about this object was obtained. Laser diodes were acting, in a certain way, just as passive devices where their only function was to provide the adequate radiation to be later measured and analyzed. The objective of this paper is to report a new concept on the use of laser diodes taking into account their optical bistable properties. As it has been shown in several places, different laser diodes as, for example, DFB lasers and FP lasers, offer bistable characteristics being these characteristics a function of different parameters as wavelength, light polarization or temperature. Laser Bistability is strongly dependent on them and any small variation of above parameters gives rise to a strong change in the characteristics of its non-linear properties. These variations are analyzed and their application in sensing reported. The dependence on wavelength, spectral width, input power and phase variations, mainly for a Fabry-Perot Laser structure as basic configuration, is shown in this paper.