31 resultados para Artificial satellites in telecommunications


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este documento trata de la instalación del sistema de provisión de abonados “Provisioning Gateway” (PG) para el proyecto Machine to Machine (M2M) de Ericsson, una tecnología que permite definir los abonados o dispositivos serán usados en las comunicaciones máquina a máquina. El proyecto ha sido realizado en Ericsson para una compañía de telefonía de España. Se hablará de la evolución que han sufrido las redes de comunicaciones en los últimos años y las aplicaciones que surgen a partir de ellas. Se hará especial hincapié en la tecnología de red más utilizada hoy en día, el 3G, y en su sucesora, el 4G, detallando las novedades que incorpora. Después se describirá el trabajo realizado por el ingeniero de Ericsson durante la instalación del PG (Provisioning Gateway), un nodo de la red a través del cual la compañía telefónica da de alta a los abonados, modifica sus parámetros o los elimina de la base de datos. Se explicarán las distintas fases de las que se compone la instalación, tanto la parte hardware como la parte software y por último las pruebas de verificación con el cliente. Por último se darán algunas conclusiones sobre el trabajo realizado y los conocimientos adquiridos. ABSTRACT This document describes the installation of Provisioning Gateway system (PG) for Machine to Machine (M2M) project in Ericsson, which is a technology that allows companies to define the subscribers that will be used of machine to Machine communications. This project has been developed in Ericsson for a Spanish telecommunication company. The evolution of telecommunication networks is going to be introduced, describing al the services developed in parallel. 3G technology will be describer in a deeper way because it is the most used technology nowadays and 4G because it represents the future in telecommunications. Después se describirá el trabajo realizado por el ingeniero de Ericsson durante la instalación del PG (Provisioning Gateway), un nodo de la red a través del cuál la compañía telefónica da de alta a los abonados, modifica sus parámetros o los elimina de la base de datos. Se explicarán las distintas fases de las que se compone la instalación, tanto la parte hardware como la parte software y por último las pruebas de verificación con el cliente. Furthermore, this document shows the installation process of PG system made by the Ericsson´s engineer. Telecommunication companies use PG for creating, defining and deleting subscribers from the database. The different steps of the installation procedure will be described among this document, talking about hardware and software installation and the final acceptant test. Finally, some conclusions about the work done and experience learned will be exposed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo del presente proyecto es proporcionar una actividad de la pronunciación y repaso de vocabulario en lengua inglesa para la plataforma Moodle alojada en la página web de Integrated Language Learning Lab (ILLLab). La página web ILLLab tiene el objetivo de que los alumnos de la EUIT de Telecomunicación de la UPM con un nivel de inglés A2 según el Marco Común Europeo de Referencia para las Lenguas (MCERL), puedan trabajar de manera autónoma para avanzar hacia el nivel B2 en inglés. La UPM exige estos conocimientos de nivel de inglés para cursar la asignatura English for Professional and Academic Communication (EPAC) de carácter obligatorio e impartida en el séptimo semestre del Grado en Ingeniería de Telecomunicaciones. Asimismo, se persigue abordar el problema de las escasas actividades de expresión oral de las plataformas de autoaprendizaje se dedican a la formación en idiomas y, más concretamente, al inglés. Con ese fin, se proporciona una herramienta basada en sistemas de reconocimiento de voz para que el usuario practique la pronunciación de las palabras inglesas. En el primer capítulo del trabajo se introduce la aplicación Traffic Lights, explicando sus orígenes y en qué consiste. En el segundo capítulo se abordan aspectos teóricos relacionados con el reconocimiento de voz y se comenta sus funciones principales y las aplicaciones actuales para las que se usa. El tercer capítulo ofrece una explicación detallada de los diferentes lenguajes utilizados para la realización del proyecto, así como de su código desarrollado. En el cuarto capítulo se plantea un manual de usuario de la aplicación, exponiendo al usuario cómo funciona la aplicación y un ejemplo de uso. Además, se añade varias secciones para el administrador de la aplicación, en las que se especifica cómo agregar nuevas palabras en la base de datos y hacer cambios en el tiempo estimado que el usuario tiene para acabar una partida del juego. ABSTRACT: The objective of the present project is to provide an activity of pronunciation and vocabulary review in English language within the platform Moodle hosted at the Integrated Language Learning Lab (ILLLab) website. The ILLLab website has the aim to provide students at the EUIT of Telecommunication in the UPM with activities to develop their A2 level according to the Common European Framework of Reference for Languages (CEFR). In the platform, students can work independently to advance towards a B2 level in English. The UPM requires this level of English proficiency for enrolling in the compulsory subject English for Professional and Academic Communication (EPAC) taught in the seventh semester of the Degree in Telecommunications Engineering. Likewise, this project tries to provide alternatives to solve the problem of scarce speaking activities included in the learning platforms that offer language courses, and specifically, English language courses. For this purpose, it provides a tool based on speech recognition systems so that the user can practice the pronunciation of English words. The first chapter of the project introduces the application Traffic Lights, explaining its origins and what it is. The second chapter deals with theoretical aspects related with speech recognition and comments their main features and current applications for which it is generally used. The third chapter provides a detailed explanation of the different programming languages used for the implementation of the project and reviews its code development. The fourth chapter presents an application user manual, exposing to the user how the application works and an example of use. Also, several sections are added addressed to the application administrator, which specify how to add new words to the database and how to make changes in the original stings as could be the estimated time that the user has to finish the game.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Laser Diodes have been employed many times as light sources on different kinds of optical sensors. Their main function in these applications was the emission of an optical radiation impinging onto a certain object and, according to the characteristics of the reflected light, some information about this object was obtained. Laser diodes were acting, in a certain way, just as passive devices where their only function was to provide the adequate radiation to be later measured and analyzed. The objective of this paper is to report a new concept on the use of laser diodes taking into account their optical bistable properties. As it has been shown in several places, different laser diodes as, for example, DFB lasers and FP lasers, offer bistable characteristics being these characteristics a function of different parameters as wavelength, light polarization or temperature. Laser Bistability is strongly dependent on them and any small variation of above parameters gives rise to a strong change in the characteristics of its non-linear properties. These variations are analyzed and their application in sensing reported. The dependence on wavelength, spectral width, input power and phase variations, mainly for a Fabry-Perot Laser structure as basic configuration, is shown in this paper.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el objetivo de consolidar los conocimientos en Sistemas de Telecomunicación, se pretende diseñar una red para la distribución de servicios avanzados, como televisión, internet de banda ancha y telefonía, mediante el uso de la tecnología FTTH. La red será totalmente pasiva, óptica, y de gran ancho de banda, Tipo PON (Passive Optical Network), de manera que el haz de luz del emisor se distribuye hacia múltiples fibras siguiendo diferentes direcciones, o las confina en el sentido opuesto usando técnicas WDM y TDMA. En primer lugar, es preciso realizar un estudio teórico sobre las características de la fibra óptica, junto con las propiedades de los elementos activos y pasivos que interactúan con ella, para poder comprender la tecnología en la que se basa y así ofrecer una solución final acorde a las necesidades que se presenten. Tras un vistazo general a la tecnología de fibra óptica, se procede a estudiar las características y topologías de las redes de acceso basadas en la misma, junto con los requisitos de cara al diseño de la redes y a la gestión de proyectos. Se definirán los objetivos de la red, ya que la complejidad de la red depende de factores como la extensión y cobertura de la misma, o el ancho de banda. Posteriormente se irá diseñando la red en una arquitectura descendente hasta destinar una única fibra óptica para cada hogar dentro de la cobertura de la red. Se detallarán todas las especificaciones necesarias para definir la red, (potencias, modulaciones y tipos de fibra) así como el instrumental y demás medios necesarios para operar con la misma. Aunque el diseño de una red FTTH contempla muchos más aspectos de los estudiados en el presente proyecto, se tomó como objetivo el diseño y planificación correspondientes a una sección de un área de escasa población donde la instalación se tomó como viable, obviando así pequeños detalles y centrándose en el despliegue de fibra óptica. Se pretende así ofrecer una solución de infraestructura doméstica de telecomunicaciones, apta para las futuras necesidades que implican la creciente demanda de servicios como internet de banda ancha o almacenamiento y procesado de aplicaciones en nube. La fibra óptica tiene mucho que ofrecer a las telecomunicaciones, y cada vez es más frecuente encontrar redes de fibra óptica como parte de un servicio de telecomunicaciones, tanto como para particulares como empresas. ABSTRACT. Aiming to strengthen knowledge in Telecommunications Systems, is intended to design a network for advanced services broadcasting, including digital TV, broadband internet and telephony, by using FTTH technology. This network will be entirely passive optic, and high bandwidth, PON type (Passive Optical Network) so that the transmitter beam is broadcasting to multiple optical fibers, branching out in different ways or joining them in the opposite. First, it is necessary to perform a theoretical study on the characteristics of the optical fiber, along with the properties of the active and passive elements that interact with it, to understand the technology that is based and offer a final solution according needs that arise. After an overview of the optical fiber technology, we proceed to study the characteristics and topologies access networks based on that, together with the requirements to face the network design and project management. System objectives will be determined, since the complexity of the network depends on factors such as the size and scope of it, or bandwidth. Later, the network will be designing in downstream architecture to deliver a single optical fiber to each household within the network area. All necessary specifications to define the network (power, modulation and fiber types) will be determined, as instruments and other means to operate it. Although FTTH network design includes many more aspects of those studied in this project, it was taken as objective the network design and planning corresponding to a section of a sparsely populated area where the facility was taken as feasible thus obviating small details and focus on the deployment of optical fiber. This is intended to provide a solution of household telecommunications infrastructure suitable for future needs involving the growing demand for services such as broadband internet or processing storage and cloud applications. The optical fiber has much to offer to telecommunications, and it is increasingly common to find fiber optic networks as part of a telecommunications service, both to individuals and businesses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectives: A recently introduced pragmatic scheme promises to be a useful catalog of interneuron names.We sought to automatically classify digitally reconstructed interneuronal morphologies according tothis scheme. Simultaneously, we sought to discover possible subtypes of these types that might emergeduring automatic classification (clustering). We also investigated which morphometric properties weremost relevant for this classification.Materials and methods: A set of 118 digitally reconstructed interneuronal morphologies classified into thecommon basket (CB), horse-tail (HT), large basket (LB), and Martinotti (MA) interneuron types by 42 of theworld?s leading neuroscientists, quantified by five simple morphometric properties of the axon and fourof the dendrites. We labeled each neuron with the type most commonly assigned to it by the experts. Wethen removed this class information for each type separately, and applied semi-supervised clustering tothose cells (keeping the others? cluster membership fixed), to assess separation from other types and lookfor the formation of new groups (subtypes). We performed this same experiment unlabeling the cells oftwo types at a time, and of half the cells of a single type at a time. The clustering model is a finite mixtureof Gaussians which we adapted for the estimation of local (per-cluster) feature relevance. We performedthe described experiments on three different subsets of the data, formed according to how many expertsagreed on type membership: at least 18 experts (the full data set), at least 21 (73 neurons), and at least26 (47 neurons).Results: Interneurons with more reliable type labels were classified more accurately. We classified HTcells with 100% accuracy, MA cells with 73% accuracy, and CB and LB cells with 56% and 58% accuracy,respectively. We identified three subtypes of the MA type, one subtype of CB and LB types each, andno subtypes of HT (it was a single, homogeneous type). We got maximum (adapted) Silhouette widthand ARI values of 1, 0.83, 0.79, and 0.42, when unlabeling the HT, CB, LB, and MA types, respectively,confirming the quality of the formed cluster solutions. The subtypes identified when unlabeling a singletype also emerged when unlabeling two types at a time, confirming their validity. Axonal morphometricproperties were more relevant that dendritic ones, with the axonal polar histogram length in the [pi, 2pi) angle interval being particularly useful.Conclusions: The applied semi-supervised clustering method can accurately discriminate among CB, HT, LB, and MA interneuron types while discovering potential subtypes, and is therefore useful for neuronal classification. The discovery of potential subtypes suggests that some of these types are more heteroge-neous that previously thought. Finally, axonal variables seem to be more relevant than dendritic ones fordistinguishing among the CB, HT, LB, and MA interneuron types.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El principal objetivo de la tesis es estudiar el acoplamiento entre los subsistemas de control de actitud y de control térmico de un pequeño satélite, con el fin de buscar la solución a los problemas relacionados con la determinación de los parámetros de diseño. Se considera la evolución de la actitud y de las temperaturas del satélite bajo la influencia de dos estrategias de orientación diferentes: 1) estabilización magnética pasiva de la orientación (PMAS, passive magnetic attitude stabilization), y 2) control de actitud magnético activo (AMAC, active magnetic attitude control). En primer lugar se presenta el modelo matemático del problema, que incluye la dinámica rotacional y el modelo térmico. En el problema térmico se considera un satélite cúbico modelizado por medio de siete nodos (seis externos y uno interno) aplicando la ecuación del balance térmico. Una vez establecido el modelo matemático del problema, se estudia la evolución que corresponde a las dos estrategias mencionadas. La estrategia PMAS se ha seleccionado por su simplicidad, fiabilidad, bajo coste, ahorrando consumo de potencia, masa coste y complejidad, comparado con otras estrategias. Se ha considerado otra estrategia de control que consigue que el satélite gire a una velocidad requerida alrededor de un eje deseado de giro, pudiendo controlar su dirección en un sistema inercial de referencia, ya que frecuentemente el subsistema térmico establece requisitos de giro alrededor de un eje del satélite orientado en una dirección perpendicular a la radiación solar incidente. En relación con el problema térmico, para estudiar la influencia de la velocidad de giro en la evolución de las temperaturas en diversos puntos del satélite, se ha empleado un modelo térmico linealizado, obtenido a partir de la formulación no lineal aplicando un método de perturbaciones. El resultado del estudio muestra que el tiempo de estabilización de la temperatura y la influencia de las cargas periódicas externas disminuye cuando aumenta la velocidad de giro. Los cambios de temperatura se reducen hasta ser muy pequeños para velocidades de rotación altas. En relación con la estrategia PMAC se ha observado que a pesar de su uso extendido entre los micro y nano satélites todavía presenta problemas que resolver. Estos problemas están relacionados con el dimensionamiento de los parámetros del sistema y la predicción del funcionamiento en órbita. Los problemas aparecen debido a la dificultad en la determinación de las características magnéticas de los cuerpos ferromagnéticos (varillas de histéresis) que se utilizan como amortiguadores de oscilaciones en los satélites. Para estudiar este problema se presenta un modelo analítico que permite estimar la eficiencia del amortiguamiento, y que se ha aplicado al estudio del comportamiento en vuelo de varios satélites, y que se ha empleado para comparar los resultados del modelo con los obtenidos en vuelo, observándose que el modelo permite explicar satisfactoriamente el comportamiento registrado. ABSTRACT The main objective of this thesis is to study the coupling between the attitude control and thermal control subsystems of a small satellite, and address the solution to some existing issues concerning the determination of their parameters. Through the thesis the attitude and temperature evolution of the satellite is studied under the influence of two independent attitude stabilization and control strategies: (1) passive magnetic attitude stabilization (PMAS), and (2) active magnetic attitude control (AMAC). In this regard the mathematical model of the problem is explained and presented. The mathematical model includes both the rotational dynamics and the thermal model. The thermal model is derived for a cubic satellite by solving the heat balance equation for 6 external and 1 internal nodes. Once established the mathematical model of the problem, the above mentioned attitude strategies were applied to the system and the temperature evolution of the 7 nodes of the satellite was studied. The PMAS technique has been selected to be studied due to its prevalent use, simplicity, reliability, and cost, as this strategy significantly saves the overall power, weight, cost, and reduces the complexity of the system compared to other attitude control strategies. In addition to that, another control law that provides the satellite with a desired spin rate along a desired axis of the satellite, whose direction can be controlled with respect to the inertial reference frame is considered, as the thermal subsystem of a satellite usually demands a spin requirement around an axis of the satellite which is positioned perpendicular to the direction of the coming solar radiation. Concerning the thermal problem, to study the influence of spin rate on temperature evolution of the satellite a linear approach of the thermal model is used, which is based on perturbation theory applied to the nonlinear differential equations of the thermal model of a spacecraft moving in a closed orbit. The results of this study showed that the temperature stabilization time and the periodic influence of the external thermal loads decreases by increasing the spin rate. However, the changes become insignificant for higher values of spin rate. Concerning the PMAS strategy, it was observed that in spite of its extended application to micro and nano satellites, still there are some issues to be solved regarding this strategy. These issues are related to the sizing of its system parameters and predicting the in-orbit performance. The problems were found to be rooted in the difficulties that exist in determining the magnetic characteristics of the ferromagnetic bodies (hysteresis rods) that are applied as damping devices on-board satellites. To address these issues an analytic model for estimating their damping efficiency is proposed and applied to several existing satellites in order to compare the results with their respective in-flight data. This model can explain the behavior showed by these satellites.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Parte de la investigación biomédica actual se encuentra centrada en el análisis de datos heterogéneos. Estos datos pueden tener distinto origen, estructura, y semántica. Gran cantidad de datos de interés para los investigadores se encuentran en bases de datos públicas, que recogen información de distintas fuentes y la ponen a disposición de la comunidad de forma gratuita. Para homogeneizar estas fuentes de datos públicas con otras de origen privado, existen diversas herramientas y técnicas que permiten automatizar los procesos de homogeneización de datos heterogéneos. El Grupo de Informática Biomédica (GIB) [1] de la Universidad Politécnica de Madrid colabora en el proyecto europeo P-medicine [2], cuya finalidad reside en el desarrollo de una infraestructura que facilite la evolución de los procedimientos médicos actuales hacia la medicina personalizada. Una de las tareas enmarcadas en el proyecto P-medicine que tiene asignado el grupo consiste en elaborar herramientas que ayuden a usuarios en el proceso de integración de datos contenidos en fuentes de información heterogéneas. Algunas de estas fuentes de información son bases de datos públicas de ámbito biomédico contenidas en la plataforma NCBI [3] (National Center for Biotechnology Information). Una de las herramientas que el grupo desarrolla para integrar fuentes de datos es Ontology Annotator. En una de sus fases, la labor del usuario consiste en recuperar información de una base de datos pública y seleccionar de forma manual los resultados relevantes. Para automatizar el proceso de búsqueda y selección de resultados relevantes, por un lado existe un gran interés en conseguir generar consultas que guíen hacia resultados lo más precisos y exactos como sea posible, por otro lado, existe un gran interés en extraer información relevante de elevadas cantidades de documentos, lo cual requiere de sistemas que analicen y ponderen los datos que caracterizan a los mismos. En el campo informático de la inteligencia artificial, dentro de la rama de la recuperación de la información, existen diversos estudios acerca de la expansión de consultas a partir de retroalimentación relevante que podrían ser de gran utilidad para dar solución a la cuestión. Estos estudios se centran en técnicas para reformular o expandir la consulta inicial utilizando como realimentación los resultados que en una primera instancia fueron relevantes para el usuario, de forma que el nuevo conjunto de resultados tenga mayor proximidad con los que el usuario realmente desea. El objetivo de este trabajo de fin de grado consiste en el estudio, implementación y experimentación de métodos que automaticen el proceso de extracción de información trascendente de documentos, utilizándola para expandir o reformular consultas. De esta forma se pretende mejorar la precisión y el ranking de los resultados asociados. Dichos métodos serán integrados en la herramienta Ontology Annotator y enfocados a la fuente de datos de PubMed [4].---ABSTRACT---Part of the current biomedical research is focused on the analysis of heterogeneous data. These data may have different origin, structure and semantics. A big quantity of interesting data is contained in public databases which gather information from different sources and make it open and free to be used by the community. In order to homogenize thise sources of public data with others which origin is private, there are some tools and techniques that allow automating the processes of integration heterogeneous data. The biomedical informatics group of the Universidad Politécnica de Madrid cooperates with the European project P-medicine which main purpose is to create an infrastructure and models to facilitate the transition from current medical practice to personalized medicine. One of the tasks of the project that the group is in charge of consists on the development of tools that will help users in the process of integrating data from diverse sources. Some of the sources are biomedical public data bases from the NCBI platform (National Center for Biotechnology Information). One of the tools in which the group is currently working on for the integration of data sources is called the Ontology Annotator. In this tool there is a phase in which the user has to retrieve information from a public data base and select the relevant data contained in it manually. For automating the process of searching and selecting data on the one hand, there is an interest in automatically generating queries that guide towards the more precise results as possible. On the other hand, there is an interest on retrieve relevant information from large quantities of documents. The solution requires systems that analyze and weigh the data allowing the localization of the relevant items. In the computer science field of the artificial intelligence, in the branch of information retrieval there are diverse studies about the query expansion from relevance feedback that could be used to solve the problem. The main purpose of this studies is to obtain a set of results that is the closer as possible to the information that the user really wants to retrieve. In order to reach this purpose different techniques are used to reformulate or expand the initial query using a feedback the results that where relevant for the user, with this method, the new set of results will have more proximity with the ones that the user really desires. The goal of this final dissertation project consists on the study, implementation and experimentation of methods that automate the process of extraction of relevant information from documents using this information to expand queries. This way, the precision and the ranking of the results associated will be improved. These methods will be integrated in the Ontology Annotator tool and will focus on the PubMed data source.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

online donde el contenido es creado por los propios usuarios mediante el uso de las tecnologías de la web 2.0, que facilitan la edición, la publicación y el intercambio de información, de tal manera que los social media están democratizando las comunicaciones. Según datos publicados por eMarketer, casi el 25% del total de la inversión publicitaria mundial para el 2014 estará dirigida a medios digitales. Los medios de comunicación tradicionales están sumidos desde algún tiempo en una profunda crisis. En los comienzos de Internet, los protagonistas de este sector han creído en la red como un medio de publicación de contenidos en una única dirección, esto es la web 1.0, personas conectándose a páginas web. El típico lector de revista y seminario se ha convertido en un nuevo consumidor con necesidades muy distintas. El lector de un medio tradicional se encuentra con contenido cerrado, sin posibilidad de ser filtrado, que busca dirigir su opinión. Con el método tradicional no es posible ni personalizar el contenido ni la experiencia de uso. De ahí el nacimiento de la web 2.0, personas conectándose a personas (redes sociales). En un futuro cercano, van a triunfar las empresas, sectores y marcas que sepan adaptarse a la llegada de los social media, y que además de desarrollar su línea de negocio habitual, se conviertan en plataformas para la conversación y la construcción de contenidos en colaboración. En este proyecto voy a desarrollar el caso particular de una empresa de telecomunicaciones con una estrategia que use los social media como plataforma de atención al cliente, y para interaccionar también con su almacén en DHL. Los servicios añadidos que dicha empresa de telecomunicaciones ofrece a sus seguidores, clientes externos e internos se pueden agrupar en las siguientes funcionalidades:  Hacer un volcado del sistema de gestión de incidencias de una empresa de telecomunicaciones en las redes sociales, a través de mensajes privados. Dichos mensajes privados se enviarán a las páginas de Facebook y Twitter de los clientes.  Seguimiento por parte del cliente de puestas en marcha de los nuevos servicios a través de mensajes privados en Facebook y Twitter. Mediante este servicio el cliente podrá comprobar a través de las redes sociales el estado de su pedido e intercambiar información de utilidad con la empresa.  Desarrollar a través de las redes sociales una herramienta de marketing para interaccionar con los clientes y posibles seguidores. A través de los canales de los social media se proporciona a los seguidores información de valor sobre novedades del mercado de las telecomunicaciones, soporte técnico, dudas, consejos sobre implementaciones técnicas, equipos de telecomunicaciones,.etc.Es decir, crear una plataforma de conversación entre usuarios, que aporte a los seguidores conocimientos y soluciones útiles para la problemática de sus negocios.  Usar Facebook como base de datos y medio de comunicación entre nuestra empresa de telecomunicaciones y el almacén externalizado en DHL. Supongo que la primera pregunta que debo responder sería, ¿por qué un cliente de una empresa de telecomunicaciones estaría interesado en seguir a su proveedor a través de redes sociales? Facebook tiene en 2014 1,28 billones de usuarios activos. Twitter, la cuarta plataforma social por número de usuarios tras Facebook, alcanzó los 255 millones de usuarios en los primeros meses de 2014. La segunda red social en número de seguidores es Youtube, con un billón de usuarios. El 61,5% de los usuarios de Facebook visita la red todos los días. Los twitteros envían 110 millones tweets por día, tienen fama de muy activos, especialmente por la mañana. En 60 días, se sube más contenido de vídeo a YouTube que el producido por las tres principales cadenas de televisión estadounidense durante 60 años. Como conclusión, las redes sociales están ganando cada día más terreno, es un entorno de comunicación bidireccional en auge cada vez más extendido, por lo cual los usuarios no tienen que dedicar tiempo extra a conocer la herramienta de atención al cliente de su empresa, al usar ésta un canal fácil, conocido, rápido, versátil y gratuito como son las redes sociales. ABSTRACT. Social media are platforms of online communication where content is created by users themselves using technologies of web 2.0, which facilitate the editing, publication and the exchange of information, so that the social media are democratizing communications. According to data published by eMarketer, nearly 25% of the total global ad spend for 2014 will target digital media. The traditional media are trapped for some time in deep crisis. In the early days of the internet, the players of the sector have believed in the network as a means of publishing content in a single direction, this is the web 1.0, connecting people to websites. The typical magazine reader has become a new consumer with very different needs. Traditional medium readers encounter a closed content, unable to be filtered, which seeks handle their opinion. The traditional method doesn’t allow to customize the content and user experience. Hence the birth of Web 2.0, connecting people to people. In the near future, will succeed companies, sectors and brands who can adapt to the advent of social media, and further to develop their line of business as usual, become platforms for conversation and building collaborative content. In this project I will develop the particular case of a telecommunications company with a strategy to use social media as a platform for Customer Service, and also to interact with DHL warehouse. The additional services that the company offers telecommunications followers, external and internal customers can be grouped into the following functionality:  Make a dump of the incident management system of a telecommunications company in social networks through private messages. These private messages are sent Facebook and Twitter clients.  Monitoring by the client launched new services through private messages on Facebook and Twitter. Through this service, customers can check through the social networks of your order status and share useful information with the company.  Develop through social media as a marketing tool to interact with customers and potential followers.Our telco will provide to followers through social media channels valuable information on market developments in telecommunications, technical support, questions, advice on technical implementations, telecommunications equipment,etc. Then we create a platform for discussion between users, to provide followers useful knowledge and solutions to their business problems.  Use Facebook as a database and means of communication between our telco and outsourced telecommunications in DHL warehouse. I guess the first question that must be answered is why a customer of a telecommunications company would be interested in following your provider via social networks. Facebook has 1.28 billion active users in 2014. Twitter, the fourth social platform for many users after Facebook reached 255 million users in the first months of 2014. The second social network on number of followers is YouTube, with a billion users. 61.5% of Facebook users visit the network every day. The twitter users send 110 million tweets per day, have a reputation for very active, especially in the morning. In 60 days, it is produced more video content to YouTube by the three major US television for 60 years. In conclusion, social networks are gaining more ground every day. It is an environment of two-way communication on the rise, so users do not have to spend extra time to learn the tool of Customer Care telco, by using this easy, known, fast, versatile and free channels as are social networks.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dendritic computation is a term that has been in neuro physiological research for a long time [1]. It is still controversial and far for been clarified within the concepts of both computation and neurophysiology [2], [3]. In any case, it hasnot been integrated neither in a formal computational scheme or structure, nor into formulations of artificial neural nets. Our objective here is to formulate a type of distributed computation that resembles dendritic trees, in such a way that it shows the advantages of neural network distributed computation, mostly the reliability that is shown under the existence of holes (scotomas) in the computing net, without ?blind spots?.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This article presents the model of a multi-agent system (SMAF), which objectives are the input of fuzzy incidents as the human experts express them with different severities degrees and the further search and suggestion of solutions. The solutions will be later confirm or not by the users. This model was designed, implemented and tested in the telecommunications field, with heterogeneous agents in a cooperative model. In the design, different abstract levels where considered, according to the agents? objectives, their ways to carry it out and the environment in which they act. Each agent is modeled with different spectrum of the knowledge base

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The image by Computed Tomography is a non-invasive alternative for observing soil structures, mainly pore space. The pore space correspond in soil data to empty or free space in the sense that no material is present there but only fluids, the fluid transport depend of pore spaces in soil, for this reason is important identify the regions that correspond to pore zones. In this paper we present a methodology in order to detect pore space and solid soil based on the synergy of the image processing, pattern recognition and artificial intelligence. The mathematical morphology is an image processing technique used for the purpose of image enhancement. In order to find pixels groups with a similar gray level intensity, or more or less homogeneous groups, a novel image sub-segmentation based on a Possibilistic Fuzzy c-Means (PFCM) clustering algorithm was used. The Artificial Neural Networks (ANNs) are very efficient for demanding large scale and generic pattern recognition applications for this reason finally a classifier based on artificial neural network is applied in order to classify soil images in two classes, pore space and solid soil respectively.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

To perform Quantum Key Distribution, the mastering of the extremely weak signals carried by the quantum channel is required. Transporting these signals without disturbance is customarily done by isolating the quantum channel from any noise sources using a dedicated physical channel. However, to really profit from this technology, a full integration with conventional network technologies would be highly desirable. Trying to use single photon signals with others that carry an average power many orders of magnitude bigger while sharing as much infrastructure with a conventional network as possible brings obvious problems. The purpose of the present paper is to report our efforts in researching the limits of the integration of QKD in modern optical networks scenarios. We have built a full metropolitan area network testbed comprising a backbone and an access network. The emphasis is put in using as much as possible the same industrial grade technology that is actually used in already installed networks, in order to understand the throughput, limits and cost of deploying QKD in a real network.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Objective: This study assessed the efficacy of a closed-loop (CL) system consisting of a predictive rule-based algorithm (pRBA) on achieving nocturnal and postprandial normoglycemia in patients with type 1 diabetes mellitus (T1DM). The algorithm is personalized for each patient’s data using two different strategies to control nocturnal and postprandial periods. Research Design and Methods: We performed a randomized crossover clinical study in which 10 T1DM patients treated with continuous subcutaneous insulin infusion (CSII) spent two nonconsecutive nights in the research facility: one with their usual CSII pattern (open-loop [OL]) and one controlled by the pRBA (CL). The CL period lasted from 10 p.m. to 10 a.m., including overnight control, and control of breakfast. Venous samples for blood glucose (BG) measurement were collected every 20 min. Results: Time spent in normoglycemia (BG, 3.9–8.0 mmol/L) during the nocturnal period (12 a.m.–8 a.m.), expressed as median (interquartile range), increased from 66.6% (8.3–75%) with OL to 95.8% (73–100%) using the CL algorithm (P<0.05). Median time in hypoglycemia (BG, <3.9 mmol/L) was reduced from 4.2% (0–21%) in the OL night to 0.0% (0.0–0.0%) in the CL night (P<0.05). Nine hypoglycemic events (<3.9 mmol/L) were recorded with OL compared with one using CL. The postprandial glycemic excursion was not lower when the CL system was used in comparison with conventional preprandial bolus: time in target (3.9–10.0 mmol/L) 58.3% (29.1–87.5%) versus 50.0% (50–100%). Conclusions: A highly precise personalized pRBA obtains nocturnal normoglycemia, without significant hypoglycemia, in T1DM patients. There appears to be no clear benefit of CL over prandial bolus on the postprandial glycemia

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The low earth orbit (LEO) environment contains a large number of artificial debris, of which a significant portion is due to dead satellites and fragments of satellites resulted from explosions and in-orbit collisions. Deorbiting defunct satellites at the end of their life can be achieved by a successful operation of an Electrodynamic Tether (EDT) system. The effectiveness of an EDT greatly depends on the survivability of the tether, which can become debris itself if cut by debris particles; a tether can be completely cut by debris having some minimal diameter. The objective of this paper is to develop an accurate model using power laws for debris-size ranges, in both ORDEM2000 and MASTER2009 debris flux models, to calculate tape tether survivability. The analytical model, which depends on tape dimensions (width, thickness) and orbital parameters (inclinations, altitudes) is then verified with fully numerical results to compare for different orbit inclinations, altitudes and tape width for both ORDEM2000 and MASTER2009 flux data.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La diabetes comprende un conjunto de enfermedades metabólicas que se caracterizan por concentraciones de glucosa en sangre anormalmente altas. En el caso de la diabetes tipo 1 (T1D, por sus siglas en inglés), esta situación es debida a una ausencia total de secreción endógena de insulina, lo que impide a la mayoría de tejidos usar la glucosa. En tales circunstancias, se hace necesario el suministro exógeno de insulina para preservar la vida del paciente; no obstante, siempre con la precaución de evitar caídas agudas de la glucemia por debajo de los niveles recomendados de seguridad. Además de la administración de insulina, las ingestas y la actividad física son factores fundamentales que influyen en la homeostasis de la glucosa. En consecuencia, una gestión apropiada de la T1D debería incorporar estos dos fenómenos fisiológicos, en base a una identificación y un modelado apropiado de los mismos y de sus sorrespondientes efectos en el balance glucosa-insulina. En particular, los sistemas de páncreas artificial –ideados para llevar a cabo un control automático de los niveles de glucemia del paciente– podrían beneficiarse de la integración de esta clase de información. La primera parte de esta tesis doctoral cubre la caracterización del efecto agudo de la actividad física en los perfiles de glucosa. Con este objetivo se ha llevado a cabo una revisión sistemática de la literatura y meta-análisis que determinen las respuestas ante varias modalidades de ejercicio para pacientes con T1D, abordando esta caracterización mediante unas magnitudes que cuantifican las tasas de cambio en la glucemia a lo largo del tiempo. Por otro lado, una identificación fiable de los periodos con actividad física es un requisito imprescindible para poder proveer de esa información a los sistemas de páncreas artificial en condiciones libres y ambulatorias. Por esta razón, la segunda parte de esta tesis está enfocada a la propuesta y evaluación de un sistema automático diseñado para reconocer periodos de actividad física, clasificando su nivel de intensidad (ligera, moderada o vigorosa); así como, en el caso de periodos vigorosos, identificando también la modalidad de ejercicio (aeróbica, mixta o de fuerza). En este sentido, ambos aspectos tienen una influencia específica en el mecanismo metabólico que suministra la energía para llevar a cabo el ejercicio y, por tanto, en las respuestas glucémicas en T1D. En este trabajo se aplican varias combinaciones de técnicas de aprendizaje máquina y reconocimiento de patrones sobre la fusión multimodal de señales de acelerometría y ritmo cardíaco, las cuales describen tanto aspectos mecánicos del movimiento como la respuesta fisiológica del sistema cardiovascular ante el ejercicio. Después del reconocimiento de patrones se incorpora también un módulo de filtrado temporal para sacar partido a la considerable coherencia temporal presente en los datos, una redundancia que se origina en el hecho de que en la práctica, las tendencias en cuanto a actividad física suelen mantenerse estables a lo largo de cierto tiempo, sin fluctuaciones rápidas y repetitivas. El tercer bloque de esta tesis doctoral aborda el tema de las ingestas en el ámbito de la T1D. En concreto, se propone una serie de modelos compartimentales y se evalúan éstos en función de su capacidad para describir matemáticamente el efecto remoto de las concetraciones plasmáticas de insulina exógena sobre las tasas de eleiminación de la glucosa atribuible a la ingesta; un aspecto hasta ahora no incorporado en los principales modelos de paciente para T1D existentes en la literatura. Los datos aquí utilizados se obtuvieron gracias a un experimento realizado por el Institute of Metabolic Science (Universidad de Cambridge, Reino Unido) con 16 pacientes jóvenes. En el experimento, de tipo ‘clamp’ con objetivo variable, se replicaron los perfiles individuales de glucosa, según lo observado durante una visita preliminar tras la ingesta de una cena con o bien alta carga glucémica, o bien baja. Los seis modelos mecanísticos evaluados constaban de: a) submodelos de doble compartimento para las masas de trazadores de glucosa, b) un submodelo de único compartimento para reflejar el efecto remoto de la insulina, c) dos tipos de activación de este mismo efecto remoto (bien lineal, bien con un punto de corte), y d) diversas condiciones iniciales. ABSTRACT Diabetes encompasses a series of metabolic diseases characterized by abnormally high blood glucose concentrations. In the case of type 1 diabetes (T1D), this situation is caused by a total absence of endogenous insulin secretion, which impedes the use of glucose by most tissues. In these circumstances, exogenous insulin supplies are necessary to maintain patient’s life; although caution is always needed to avoid acute decays in glycaemia below safe levels. In addition to insulin administrations, meal intakes and physical activity are fundamental factors influencing glucose homoeostasis. Consequently, a successful management of T1D should incorporate these two physiological phenomena, based on an appropriate identification and modelling of these events and their corresponding effect on the glucose-insulin balance. In particular, artificial pancreas systems –designed to perform an automated control of patient’s glycaemia levels– may benefit from the integration of this type of information. The first part of this PhD thesis covers the characterization of the acute effect of physical activity on glucose profiles. With this aim, a systematic review of literature and metaanalyses are conduced to determine responses to various exercise modalities in patients with T1D, assessed via rates-of-change magnitudes to quantify temporal variations in glycaemia. On the other hand, a reliable identification of physical activity periods is an essential prerequisite to feed artificial pancreas systems with information concerning exercise in ambulatory, free-living conditions. For this reason, the second part of this thesis focuses on the proposal and evaluation of an automatic system devised to recognize physical activity, classifying its intensity level (light, moderate or vigorous) and for vigorous periods, identifying also its exercise modality (aerobic, mixed or resistance); since both aspects have a distinctive influence on the predominant metabolic pathway involved in fuelling exercise, and therefore, in the glycaemic responses in T1D. Various combinations of machine learning and pattern recognition techniques are applied on the fusion of multi-modal signal sources, namely: accelerometry and heart rate measurements, which describe both mechanical aspects of movement and the physiological response of the cardiovascular system to exercise. An additional temporal filtering module is incorporated after recognition in order to exploit the considerable temporal coherence (i.e. redundancy) present in data, which stems from the fact that in practice, physical activity trends are often maintained stable along time, instead of fluctuating rapid and repeatedly. The third block of this PhD thesis addresses meal intakes in the context of T1D. In particular, a number of compartmental models are proposed and compared in terms of their ability to describe mathematically the remote effect of exogenous plasma insulin concentrations on the disposal rates of meal-attributable glucose, an aspect which had not yet been incorporated to the prevailing T1D patient models in literature. Data were acquired in an experiment conduced at the Institute of Metabolic Science (University of Cambridge, UK) on 16 young patients. A variable-target glucose clamp replicated their individual glucose profiles, observed during a preliminary visit after ingesting either a high glycaemic-load or a low glycaemic-load evening meal. The six mechanistic models under evaluation here comprised: a) two-compartmental submodels for glucose tracer masses, b) a single-compartmental submodel for insulin’s remote effect, c) two types of activations for this remote effect (either linear or with a ‘cut-off’ point), and d) diverse forms of initial conditions.