580 resultados para Enlaces de dihidrógeno
Resumo:
En la actualidad las redes de Pequeño Mundo están presentes en muchas aplicaciones distribuidas, pudiéndose construir estas redes añadiendo, a un grafo base, enlaces de largo alcance tomados conforme a una determinada distribución de probabiblidad. Los sistemas distribuidos actuales utilizan soluciones ad hoc específicas para calcular los enlaces de largo alcance. En este artículo proponemos un nuevo algoritmo distribuido llamado Selección Sesgada (SS), que utilizando únicamente un servicio de muestreo uniforme (que puede estar implementado mediante un protocolo gossip), es capaz de seleccionar enlaces largos conforme a cualquier distribución de probabilidad. SS es un algoritmo iterativo que dispone de un único parámetro (r) para indicar el número de iteraciones que debe ejecutarse. Se ha probado que la muestra obtenida con el algoritmo SS converge a la distribución objetivo a medida que aumenta el valor de r. También se ha calculado la cota analítica del error relativo máximo, para un determinado valor de r. Aunque este artículo se propone para el algoritmo SS como una herramienta para tomar muestras de nodos en una red, puede emplearse en cualquier contexto en el que sea necesario realizar un muestreo conforme a una determinada distribución de probabilidad, necesitando para funcionar únicamente un servicio de muestreo uniforme. Se han construido redes de Pequeño Mundo, modelo Kleinberg, utilizando SS para escoger los enlaces (vecinos) de largo alcance en estructuras de tipo toro. Hemos observado que con un número reducido de iteraciones (1) SS tiene un comportamiento muy similar a la distribución armónica de Kleinberg y (2) el número medio de saltos, utilizando enrutamiento ávido, no es peor que en una red construida con la distribución de Leinberg. También se ha observado que antes de obtener la convergencia, el número medio de saltos es menor que en las redes construidas mediante la distribución armónica de Leinberg (14% mejor en un toro de 1000 x 1000).
Resumo:
En este proyecto se realiza un estudio sobre herramientas que facilitan la creación y distribución de aplicaciones en distintas plataformas móviles, con el fin de poder seleccionar la herramienta más apropiada en función del proyecto a desarrollar. Previo al estudio de las herramientas para el desarrollo en plataformas múltiples se realiza un estudio de las herramientas y metodologías que facilitan los propietarios de los entornos IOS y Android. Este estudio previo permitirá al lector conocer en más detalle las particularidades de cada uno de estos dos entornos, así como las pautas y buenas prácticas a seguir en el desarrollo de aplicaciones para dispositivos móviles. Una vez finalizado el estudio, el lector sabrá escoger una herramienta de desarrollo adaptada a cada proyecto en función de su objeto, los recursos disponibles y las habilidades de los miembros del equipo de desarrollo. Adicionalmente al estudio, y como ejemplo de aplicación, en el proyecto se realiza un caso práctico de selección de herramienta y aplicación de la herramienta seleccionada a un proyecto de desarrollo concreto. El caso práctico consiste en la creación de un entorno que permite generar aplicaciones para la visualización de apuntes. Las aplicaciones permitirán ver contenidos de tipo multimedia como ficheros de texto, sonidos, imágenes, vídeos y enlaces a contenidos externos. Además estas aplicaciones se generarán sin que el autor de las mismas tenga que modificar alguna de las líneas del código. Para ello, se han definido una serie de ficheros de configuración en los que el autor de la aplicación deberá indicar los contenidos a mostrar y su ubicación. Se han seleccionado recursos de tipo “código abierto” para el desarrollo del caso práctico, con el fin de evitar los costes asociados a las posibles licencias. El equipo de desarrollo del caso práctico estará formado únicamente por el autor de este proyecto de fin de grado, lo que hace del caso de estudio un desarrollo sencillo, de manera que su futuro mantenimiento y escalabilidad no deberían verse afectados por la necesidad de contar con equipos de desarrolladores con conocimientos específicos o complejos. ABSTRACT. This document contains a study of tools that ease the creation and the distribution of the applications through different mobile platforms. The objective o this document is to allow the selection of the most appropriate tool, depending on the development objectives. Previous to this study about the tools for developing on multiple platforms, a study of IOS and Android tools and their methodologies is included on this document. This previous analysis will allow the reader to know in more detail the peculiarities of each of these environments, together with theirs requirements and the best practices of the applications development for mobile devices. By the end of this document the reader would be able to choose the adequate development tool for a project depending of its objective, its available resources and the developers team’s capabilities. Beside this study and as example of case study this final project includes a practical case of tool selection and its application to a specific development. The case study consists in the creation of an environment that allows generating applications to visualise notes. These applications will allow seeing contents of multimedia type such as: text files, sounds, images, videos, and links to external content. Furthermore these applications will be generated without their author having to modify any line of code, because a group of configuration files will be defined for such purpose. The author of the application only has to update this configuration with the content to show by the application and its location. The selected resources for the case study were of the type “open source” in order to avoid the cost associated to the potential licenses. The developers’ team for this case study has only one member, the author of this final project document and practical case developer. As a result the case study is a very simple development in a way that the future potential maintenance and scalability should not depend on the necessity of a highly qualified developers’ teams with a very specific knowledge on mobile platforms development.
Resumo:
Telecommunications networks have been always expanding and thanks to it, new services have appeared. The old mechanisms for carrying packets have become obsolete due to the new service requirements, which have begun working in real time. Real time traffic requires strict service guarantees. When this traffic is sent through the network, enough resources must be given in order to avoid delays and information losses. When browsing through the Internet and requesting web pages, data must be sent from a server to the user. If during the transmission there is any packet drop, the packet is sent again. For the end user, it does not matter if the webpage loads in one or two seconds more. But if the user is maintaining a conversation with a VoIP program, such as Skype, one or two seconds of delay in the conversation may be catastrophic, and none of them can understand the other. In order to provide support for this new services, the networks have to evolve. For this purpose MPLS and QoS were developed. MPLS is a packet carrying mechanism used in high performance telecommunication networks which directs and carries data using pre-established paths. Now, packets are forwarded on the basis of labels, making this process faster than routing the packets with the IP addresses. MPLS also supports Traffic Engineering (TE). This refers to the process of selecting the best paths for data traffic in order to balance the traffic load between the different links. In a network with multiple paths, routing algorithms calculate the shortest one, and most of the times all traffic is directed through it, causing overload and packet drops, without distributing the packets in the other paths that the network offers and do not have any traffic. But this is not enough in order to provide the real time traffic the guarantees it needs. In fact, those mechanisms improve the network, but they do not make changes in how the traffic is treated. That is why Quality of Service (QoS) was developed. Quality of service is the ability to provide different priority to different applications, users, or data flows, or to guarantee a certain level of performance to a data flow. Traffic is distributed into different classes and each of them is treated differently, according to its Service Level Agreement (SLA). Traffic with the highest priority will have the preference over lower classes, but this does not mean it will monopolize all the resources. In order to achieve this goal, a set policies are defined to control and alter how the traffic flows. Possibilities are endless, and it depends in how the network must be structured. By using those mechanisms it is possible to provide the necessary guarantees to the real-time traffic, distributing it between categories inside the network and offering the best service for both real time data and non real time data. Las Redes de Telecomunicaciones siempre han estado en expansión y han propiciado la aparición de nuevos servicios. Los viejos mecanismos para transportar paquetes se han quedado obsoletos debido a las exigencias de los nuevos servicios, que han comenzado a operar en tiempo real. El tráfico en tiempo real requiere de unas estrictas garantías de servicio. Cuando este tráfico se envía a través de la red, necesita disponer de suficientes recursos para evitar retrasos y pérdidas de información. Cuando se navega por la red y se solicitan páginas web, los datos viajan desde un servidor hasta el usuario. Si durante la transmisión se pierde algún paquete, éste se vuelve a mandar de nuevo. Para el usuario final, no importa si la página tarda uno o dos segundos más en cargar. Ahora bien, si el usuario está manteniendo una conversación usando algún programa de VoIP (como por ejemplo Skype) uno o dos segundos de retardo en la conversación podrían ser catastróficos, y ninguno de los interlocutores sería capaz de entender al otro. Para poder dar soporte a estos nuevos servicios, las redes deben evolucionar. Para este propósito se han concebido MPLS y QoS MPLS es un mecanismo de transporte de paquetes que se usa en redes de telecomunicaciones de alto rendimiento que dirige y transporta los datos de acuerdo a caminos preestablecidos. Ahora los paquetes se encaminan en función de unas etiquetas, lo cual hace que sea mucho más rápido que encaminar los paquetes usando las direcciones IP. MPLS también soporta Ingeniería de Tráfico (TE). Consiste en seleccionar los mejores caminos para el tráfico de datos con el objetivo de balancear la carga entre los diferentes enlaces. En una red con múltiples caminos, los algoritmos de enrutamiento actuales calculan el camino más corto, y muchas veces el tráfico se dirige sólo por éste, saturando el canal, mientras que otras rutas se quedan completamente desocupadas. Ahora bien, esto no es suficiente para ofrecer al tráfico en tiempo real las garantías que necesita. De hecho, estos mecanismos mejoran la red, pero no realizan cambios a la hora de tratar el tráfico. Por esto es por lo que se ha desarrollado el concepto de Calidad de Servicio (QoS). La calidad de servicio es la capacidad para ofrecer diferentes prioridades a las diferentes aplicaciones, usuarios o flujos de datos, y para garantizar un cierto nivel de rendimiento en un flujo de datos. El tráfico se distribuye en diferentes clases y cada una de ellas se trata de forma diferente, de acuerdo a las especificaciones que se indiquen en su Contrato de Tráfico (SLA). EL tráfico con mayor prioridad tendrá preferencia sobre el resto, pero esto no significa que acapare la totalidad de los recursos. Para poder alcanzar estos objetivos se definen una serie de políticas para controlar y alterar el comportamiento del tráfico. Las posibilidades son inmensas dependiendo de cómo se quiera estructurar la red. Usando estos mecanismos se pueden proporcionar las garantías necesarias al tráfico en tiempo real, distribuyéndolo en categorías dentro de la red y ofreciendo el mejor servicio posible tanto a los datos en tiempo real como a los que no lo son.
Resumo:
El presente Proyecto Fin de Carrera consiste en un estudio de los accesos a red que utilizan los servicios a los que están adscritos los usuarios de servicios de teleasistencia, planteando al final del mismo un modelo de previsión de caídas que permita que ese acceso a red no sea un problema para la prestación del servicio. Para poder llegar a los objetivos anteriormente descritos, iniciaremos este documento presentando qué se entiende actualmente como servicios de telemedicina y teleasistencia. Prestaremos atención a los actores que intervienen, usos y beneficios que tienen tanto para los pacientes como para las administraciones públicas. Una vez sepamos en qué consisten, centraremos la atención en las redes de acceso que se utilizan para prestar los servicios de telemedicina, con sus ventajas y desventajas. Puesto que no todos los servicios tienen los mismos requisitos generales de fiabilidad o velocidad de transmisión, veremos cómo se puede garantizar las necesidades de cada tipo de servicio por parte del proveedor de red. El siguiente paso para llegar a establecer el modelo de previsión de caídas será conocer las necesidades técnicas y de los actores para prestar un servicio de teleasistencia en el hogar de un paciente. Esto incluirá estudiar qué equipos se necesitan, cómo gestionarlos y cómo marcar el tráfico para que el operador de red sepa cómo tratarlo según el servicio de teleasistencia que se está utilizando, llevando a generar un modelo de supervisión de enlaces de teleasistencia. Llegados a este punto estaremos ya preparados para establecer un modelo de previsión de caídas de la conexión, describiendo la lógica que se necesite para ello, y poniéndolo en práctica con dos ejemplo concretos: un servicio de telemonitorización domiciliaria y otro servicio de telemonitorización ambulatoria. Para finalizar, realizaremos una recapitulación sobre lo estudiado en este documento y realizaremos una serie de recomendaciones. ABSTRACT. This Thesis is a study of the access network to be used with services assigned to patients that are users of telecare services. In the last chapter we will describe a fall forecasting model that allows the access network to not be an issue for the service. For achieving the objectives described above, this paper will begin with the presentation of what is now understood as telemedicine and telecare services. We pay attention to the actors involved, uses and benefits that they have both for patients and for public administrations. Once we know what telecare means and what requisites they have, we will focus on access networks which are used to provide telemedicine services, with their advantages and disadvantages. Since not all services have the same general requirements of reliability and transmission speed, we will try to see how you can ensure the needs of each type of service from the network provider's point of view. The next step is to establish that the forecasting model of falls will meet the technical needs and actors to provide telecare service in the home of a patient. This will include a study of what equipment is needed, how to manage and how to mark traffic for the network operator knowing how to treat it according to the telecare service being used, and this will lead us to the creation of a model of telecare link monitoring. At this point we are already prepared to establish a forecasting model of connection drops, describing the logic that is needed for this, and putting it into practice with two concrete examples: telemonitoring service and an ambulatory telemonitoring service. Finally, we will have a recap on what has been studied in this paper and will make a series of recommendations.
Resumo:
el proyecto consiste en el diseño de un vial que une el municipio de Móstoles y el Polígono Industrial Valdearenal, perteneciente al término municipal de Arroyomolinos. Adicionalmente se pretende diseñar una glorieta en su enlace con las vías urbanas de Móstoles para enlazar el vial con las vías urbanas de Móstoles. El enlace con el polígono industrial se realiza en una glorieta ya presente en la zona. Para la realización de este proyecto se ha seguido un proceso que engloba varias fases. En primer lugar, se ha creado una red que enlaza con las redes geodésicas nacionales con el fin de crear un grupo de vértices iniciales (bases) con coordenadas suficientemente precisas para basar en ellas el resto del trabajo y basadas en un sistema de coordenadas oficial. Desde las bases obtenidas se ha realizado un levantamiento en el que se ha dado una gran cantidad de puntos con el fin de definir el terreno de la zona lo más ajustado posible a la realidad y definiendo los elemento relevantes que se encuentran en este tales como calles, caminos, vallas, etc. Esta nube de puntos se ha medido en una franja transversal a la carretera planificada inicialmente de unos 60m, 30 a cada lado. La longitud total del tramo levantado es de aproximadamente 1,6km. Finalmente en campo, se ha realizado una nivelación entre las bases para que el desnivel entre estas sea lo más preciso posible y las diferentes zonas de puntos del levantamiento se ajusten la mejor posible entre sí. Realizada la parte de campo, se ha pasado a la parte de gabinete,donde se ha comenzado ajustando todos los resultados obtenidos para que la nube de puntos se acerque lo máximo que se pueda a la superficie real del terreno. Con estos datos se ha realizado la cartografía, dibujando todos los elementos de la zona y las líneas de nivel para definir la zona sobre el plano. Una vez hecha la cartografía se ha diseñado el vial y la glorieta nueva sobre esta y los enlaces con las zonas urbanas, ajustando esto a la normativa legal existente y estableciendo la señalización. Sobre el vial ya diseñado se ha realizado el cálculo de expropiaciones y, por último, el cálculo de presupuestos. El sistema de referencia en el que se encuentra todo el proyecto es ETRS89, que utiliza como modelo de elipsoide el GRS80. El sistema de coordenadas es UTM, ubicándose la zona del proyecto en el huso 30 y en el hemisferio norte. Se ha trabajado con alturas ortométricas, que emplean como datum el nivel medio del mar en Alicante entre los años 1870 y 1882. La razón por la que todos estos parámetros se han usado es debido a que son los oficiales en España.
Resumo:
Since the beginning of the smartphones in the 80s, the mobile device market has grown and evolved towards devices connected everywhere, with hardware more and more close to computers and laptops than a classic mobile telephone. Nowadays, this market seems to be crowded and some companies seem not to know exactly which step is next. In this manner, a concept appears in the market as a solution or a difficulty to overcome: the dominant design. The thesis aims to establish an analysis and definition of what a dominant design is and how we should understand this concept: which are the costumers’ demands and needs? How can we relate this information with the dominant design? What is the strategy of the firm before designing a device? Do they use a concept similar to a dominant design?. The research base its analysis in a theoretical framework based in innovation and marketing literature, to then compare the model studied with data collected from surveys made to customers, interviews made to workers of the mobile device market, and different new projects on the market. The research finishes with a discussion about the theoretical and the empirical frameworks, and concludes replying the research questions, and defining a dominant design and its current situation in the market. RESUMEN. Desde la aparición de los Smartphones en los años 80, el mercado de los dispositivos móviles ha crecido y evolucionado hacia dispositivos cada vez más conectados, con hardware cada vez más cercano a los ordenadores de sobremesa y portátiles que al clásico teléfono móvil. A día de hoy, el mercado está saturado y algunas compañías parecen dubitativas ante el próximo paso a seguir. De esta manera, el concepto del diseño dominante aparece en el mercado como una solución a esta dificultad. El primer capítulo de este estudio se centra en establecer, a modo de introducción, los antecedentes al caso a estudiar, el objetivo de la tesis con sus limitaciones y delimitaciones, así como la metodología utilizada. También se plantean las preguntas principales (Research Questions) sobre el objetivo de la tesis, las cuales darán respuesta en la conclusión final al caso de estudio. Este proyecto tiene como objetivo establecer un análisis y definición sobre que es un diseño dominante y qué deberíamos entender como tal: ¿cuáles son las necesidades y las exigencias de los clientes? ¿Cómo se puede relacionar esta información con el diseño dominante en el sector tecnológico? ¿Cuáles son las estrategias de las empresas antes de diseñar un nuevo dispositivo? ¿Usan un concepto o modelos similares a un diseño dominante? Posteriormente, el segundo capítulo expone la bibliografía utilizada, y el enfoque analítico que se llevará a cabo con las 3 principales fuentes de datos. La investigación enfoca su análisis en un marco teórico, basado en publicaciones y bibliografía relacionadas con la innovación y el marketing, para luego comparar el modelo estudiado con un marco empírico: datos obtenidos de encuestas a consumidores, entrevistas a profesionales del sector de los dispositivos móviles, y diferentes prototipos y nuevos proyectos en este mercado. Entre esta literatura se encuentran manuales de marketing como “22 Immutable laws of Marketing” (de Al Ries & Jack Trout), publicaciones sobre el sector industrial de la tecnología y negocios: “Crossing the Chasm” de Geoffrey A. Moore y modelos de innovación entre otros como “Mastering the Dynamics of Innovation” de James M. Utterback. El tercer capítulo corresponde al estudio del marco teórico de la tesis, donde se analizará principalmente el modelo de innovación utilizado (el modelo cíclico de Utterback) y varios principios de marketing aplicados a este sector. Se plantean las bases de este modelo, la definición que el propio Utterback ofrece sobre el diseño dominante, y las 3 fases del proceso del mismo (Fluid Phase, Transitional Phase y Specific Phase), donde las empresas cambian de estrategia según las circunstancias evolutivas del dispositivo, su posición respecto el líder del mercado, o los procesos de estandarización y de costes. Por último se plantea la base para el desarrollo del diseño dominante en un ciclo evolutivo constante en el tiempo. Respecto a la parte más analítica de la tesis, el cuarto capítulo se desarrolla a partir de los datos obtenidos de las fuentes de información en el marco empírico de estudio. Se obtienen conclusiones sobre los datos realizados en ambas encuestas (en Español e Inglés) y sobre la relevancia de esta información; se estudian uno por uno hasta cuatro casos de nuevos dispositivos a corto-medio plazo en el mercado y se obtienen unas conclusiones globales sobre las entrevistas realizadas a los profesionales del sector y la relevancia de todas estas informaciones. En el quinto capítulo de la tesis se desarrolla la discusión en torno a los marcos teórico y empírico utilizados, para concluir respondiendo a las “Research Questions”, definiendo de esta manera el concepto de diseño dominante y comparando esta definición con la situación real del mercado. Se contrastan las bases del modelo de Utterback con los datos obtenidos en el capítulo cuarto, enfatizando la comparación entre las fases de este modelo con la realidad obtenida a través del estudio. Las encuestas realizadas a los consumidores se enmarcan en la segunda y tercera fase del ciclo, donde el desarrollo del diseño dominante ya está establecido y más desarrollado, mientras que las entrevistas unifican varios puntos clave a tener en cuenta en la primera y segunda fases, orientándose a las capas previas del proceso. Después se comparan uno a uno los 4 dispositivos analizados, a fin de establecer su jerarquía dentro del mercado, como posibles nuevos diseños dominantes o evoluciones especializadas de otros que ya aparecieron en el mercado con anterioridad. Así mismo, en esta parte final del estudio se comparan entre sí los resultados similares entre las tres fuentes de datos, y se analiza la veracidad de todas las fuentes consultadas. Finalmente, se han registrado en un sexto capítulo todas las referencias utilizadas en este proyecto, tanto publicaciones bibliográficas, entrevistas, citas de personajes relevantes del sector y enlaces en la red sobre noticias relevantes. En el apartado de apéndices se adjuntan tres anexos, donde se adjunta información utilizada en el caso de estudio, y la cual se ha obviado del texto principal con el objetivo de agilizar la lectura y la comprensión del mismo. Estos tres apéndices corresponden a las dos encuestas realizadas en ambos idiomas y la entrevista realizada a los profesionales del sector de los dispositivos móviles.
Resumo:
Nuestro cerebro contiene cerca de 1014 sinapsis neuronales. Esta enorme cantidad de conexiones proporciona un entorno ideal donde distintos grupos de neuronas se sincronizan transitoriamente para provocar la aparición de funciones cognitivas, como la percepción, el aprendizaje o el pensamiento. Comprender la organización de esta compleja red cerebral en base a datos neurofisiológicos, representa uno de los desafíos más importantes y emocionantes en el campo de la neurociencia. Se han propuesto recientemente varias medidas para evaluar cómo se comunican las diferentes partes del cerebro a diversas escalas (células individuales, columnas corticales, o áreas cerebrales). Podemos clasificarlos, según su simetría, en dos grupos: por una parte, la medidas simétricas, como la correlación, la coherencia o la sincronización de fase, que evalúan la conectividad funcional (FC); mientras que las medidas asimétricas, como la causalidad de Granger o transferencia de entropía, son capaces de detectar la dirección de la interacción, lo que denominamos conectividad efectiva (EC). En la neurociencia moderna ha aumentado el interés por el estudio de las redes funcionales cerebrales, en gran medida debido a la aparición de estos nuevos algoritmos que permiten analizar la interdependencia entre señales temporales, además de la emergente teoría de redes complejas y la introducción de técnicas novedosas, como la magnetoencefalografía (MEG), para registrar datos neurofisiológicos con gran resolución. Sin embargo, nos hallamos ante un campo novedoso que presenta aun varias cuestiones metodológicas sin resolver, algunas de las cuales trataran de abordarse en esta tesis. En primer lugar, el creciente número de aproximaciones para determinar la existencia de FC/EC entre dos o más señales temporales, junto con la complejidad matemática de las herramientas de análisis, hacen deseable organizarlas todas en un paquete software intuitivo y fácil de usar. Aquí presento HERMES (http://hermes.ctb.upm.es), una toolbox en MatlabR, diseñada precisamente con este fin. Creo que esta herramienta será de gran ayuda para todos aquellos investigadores que trabajen en el campo emergente del análisis de conectividad cerebral y supondrá un gran valor para la comunidad científica. La segunda cuestión practica que se aborda es el estudio de la sensibilidad a las fuentes cerebrales profundas a través de dos tipos de sensores MEG: gradiómetros planares y magnetómetros, esta aproximación además se combina con un enfoque metodológico, utilizando dos índices de sincronización de fase: phase locking value (PLV) y phase lag index (PLI), este ultimo menos sensible a efecto la conducción volumen. Por lo tanto, se compara su comportamiento al estudiar las redes cerebrales, obteniendo que magnetómetros y PLV presentan, respectivamente, redes más densamente conectadas que gradiómetros planares y PLI, por los valores artificiales que crea el problema de la conducción de volumen. Sin embargo, cuando se trata de caracterizar redes epilépticas, el PLV ofrece mejores resultados, debido a la gran dispersión de las redes obtenidas con PLI. El análisis de redes complejas ha proporcionado nuevos conceptos que mejoran caracterización de la interacción de sistemas dinámicos. Se considera que una red está compuesta por nodos, que simbolizan sistemas, cuyas interacciones se representan por enlaces, y su comportamiento y topología puede caracterizarse por un elevado número de medidas. Existe evidencia teórica y empírica de que muchas de ellas están fuertemente correlacionadas entre sí. Por lo tanto, se ha conseguido seleccionar un pequeño grupo que caracteriza eficazmente estas redes, y condensa la información redundante. Para el análisis de redes funcionales, la selección de un umbral adecuado para decidir si un determinado valor de conectividad de la matriz de FC es significativo y debe ser incluido para un análisis posterior, se convierte en un paso crucial. En esta tesis, se han obtenido resultados más precisos al utilizar un test de subrogadas, basado en los datos, para evaluar individualmente cada uno de los enlaces, que al establecer a priori un umbral fijo para la densidad de conexiones. Finalmente, todas estas cuestiones se han aplicado al estudio de la epilepsia, caso práctico en el que se analizan las redes funcionales MEG, en estado de reposo, de dos grupos de pacientes epilépticos (generalizada idiopática y focal frontal) en comparación con sujetos control sanos. La epilepsia es uno de los trastornos neurológicos más comunes, con más de 55 millones de afectados en el mundo. Esta enfermedad se caracteriza por la predisposición a generar ataques epilépticos de actividad neuronal anormal y excesiva o bien síncrona, y por tanto, es el escenario perfecto para este tipo de análisis al tiempo que presenta un gran interés tanto desde el punto de vista clínico como de investigación. Los resultados manifiestan alteraciones especificas en la conectividad y un cambio en la topología de las redes en cerebros epilépticos, desplazando la importancia del ‘foco’ a la ‘red’, enfoque que va adquiriendo relevancia en las investigaciones recientes sobre epilepsia. ABSTRACT There are about 1014 neuronal synapses in the human brain. This huge number of connections provides the substrate for neuronal ensembles to become transiently synchronized, producing the emergence of cognitive functions such as perception, learning or thinking. Understanding the complex brain network organization on the basis of neuroimaging data represents one of the most important and exciting challenges for systems neuroscience. Several measures have been recently proposed to evaluate at various scales (single cells, cortical columns, or brain areas) how the different parts of the brain communicate. We can classify them, according to their symmetry, into two groups: symmetric measures, such as correlation, coherence or phase synchronization indexes, evaluate functional connectivity (FC); and on the other hand, the asymmetric ones, such as Granger causality or transfer entropy, are able to detect effective connectivity (EC) revealing the direction of the interaction. In modern neurosciences, the interest in functional brain networks has increased strongly with the onset of new algorithms to study interdependence between time series, the advent of modern complex network theory and the introduction of powerful techniques to record neurophysiological data, such as magnetoencephalography (MEG). However, when analyzing neurophysiological data with this approach several questions arise. In this thesis, I intend to tackle some of the practical open problems in the field. First of all, the increase in the number of time series analysis algorithms to study brain FC/EC, along with their mathematical complexity, creates the necessity of arranging them into a single, unified toolbox that allow neuroscientists, neurophysiologists and researchers from related fields to easily access and make use of them. I developed such a toolbox for this aim, it is named HERMES (http://hermes.ctb.upm.es), and encompasses several of the most common indexes for the assessment of FC and EC running for MatlabR environment. I believe that this toolbox will be very helpful to all the researchers working in the emerging field of brain connectivity analysis and will entail a great value for the scientific community. The second important practical issue tackled in this thesis is the evaluation of the sensitivity to deep brain sources of two different MEG sensors: planar gradiometers and magnetometers, in combination with the related methodological approach, using two phase synchronization indexes: phase locking value (PLV) y phase lag index (PLI), the latter one being less sensitive to volume conduction effect. Thus, I compared their performance when studying brain networks, obtaining that magnetometer sensors and PLV presented higher artificial values as compared with planar gradiometers and PLI respectively. However, when it came to characterize epileptic networks it was the PLV which gives better results, as PLI FC networks where very sparse. Complex network analysis has provided new concepts which improved characterization of interacting dynamical systems. With this background, networks could be considered composed of nodes, symbolizing systems, whose interactions with each other are represented by edges. A growing number of network measures is been applied in network analysis. However, there is theoretical and empirical evidence that many of these indexes are strongly correlated with each other. Therefore, in this thesis I reduced them to a small set, which could more efficiently characterize networks. Within this framework, selecting an appropriate threshold to decide whether a certain connectivity value of the FC matrix is significant and should be included in the network analysis becomes a crucial step, in this thesis, I used the surrogate data tests to make an individual data-driven evaluation of each of the edges significance and confirmed more accurate results than when just setting to a fixed value the density of connections. All these methodologies were applied to the study of epilepsy, analysing resting state MEG functional networks, in two groups of epileptic patients (generalized and focal epilepsy) that were compared to matching control subjects. Epilepsy is one of the most common neurological disorders, with more than 55 million people affected worldwide, characterized by its predisposition to generate epileptic seizures of abnormal excessive or synchronous neuronal activity, and thus, this scenario and analysis, present a great interest from both the clinical and the research perspective. Results revealed specific disruptions in connectivity and network topology and evidenced that networks’ topology is changed in epileptic brains, supporting the shift from ‘focus’ to ‘networks’ which is gaining importance in modern epilepsy research.
Resumo:
En este trabajo se han preparado nanocompuestos de matriz polímero termoestable del tipo poliéster insaturado y epoxídica utilizando como refuerzo nanosilicatos laminares que se han modificado específicamente para mejorar la interacción con la matriz. En concreto se han modificado montmorillonitas con cationes orgánicos reactivos con la matriz de poliéster insaturado. Asimismo se han silanizado montmorillonitas comerciales orgánicamente modificadas con el objetivo de formar enlaces químicos con la matriz epoxídica. En ambos nanocompuestos se han estudiado las propiedades termo- mecánicas pudiendo comprobar la efectividad de los nuevos organosilicatos.
Resumo:
Los sistemas de telecomunicación que trabajan en frecuencias milimétricas pueden verse severamente afectados por varios fenómenos atmosféricos, tales como la atenuación por gases, nubes y el centelleo troposférico. Una adecuada caracterización es imprescindible en el diseño e implementación de estos sistemas. El presente Proyecto Fin de Grado tiene como objetivo el estudio estadístico a largo plazo de series temporales de centelleo troposférico en enlaces de comunicaciones en trayecto inclinado sobre la banda Ka a 19,7 GHz. Para la realización de este estudio, se dispone como punto de partida de datos experimentales procedentes de la baliza en banda Ka a 19,7 GHz del satélite Eutelsat Hot Bird 13A que han sido recopilados durante siete años entre julio de 2006 y junio de 2013. Además, se cuenta como referencia teórica con la aplicación práctica del método UIT-R P.618-10 para el modelado del centelleo troposférico en sistemas de telecomunicación Tierra-espacio. Esta información permite examinar la validez de la aplicación práctica del método UIT-R P.1853-1 para la síntesis de series temporales de centelleo troposférico. Sobre este sintetizador se variará la serie temporal de contenido integrado de vapor de agua en una columna vertical por datos reales obtenidos de bases de datos meteorológicas ERA-Interim y GNSS con el objetivo de comprobar el impacto de este cambio. La primera parte del Proyecto comienza con la exposición de los fundamentos teóricos de los distintos fenómenos que afectan a la propagación en un enlace por satélite, incluyendo los modelos de predicción más importantes. Posteriormente, se presentan los fundamentos teóricos que describen las series temporales, así como su aplicación al modelado de enlaces de comunicaciones. Por último, se describen los recursos específicos empleados en la realización del experimento. La segunda parte del Proyecto se inicia con la muestra del proceso de análisis de los datos disponibles que, más tarde, permiten obtener resultados que caracterizan el centelleo troposférico en ausencia de precipitación, o centelleo seco, para los tres casos de estudio sobre los datos experimentales, sobre el modelo P.618-10 y sobre el sintetizador P.1853-1 con sus modificaciones. Al haber mantenido en todo momento las mismas condiciones de frecuencia, localización, clima y periodo de análisis, el estudio comparativo de los resultados obtenidos permite extraer las conclusiones oportunas y proponer líneas futuras de investigación. ABSTRACT. Telecommunication systems working in the millimetre band are severely affected by various atmospheric impairments, such as attenuation due to clouds, gases and tropospheric scintillation. An adequate characterization is essential in the design and implementation of these systems. This Final Degree Project aims to a long-term statistical study of time series of tropospheric scintillation on slant path communications links in Ka band at 19.7 GHz. To carry out this study, experimental data from the beacon in Ka band at 19.7 GHz for the Eutelsat Hot Bird 13A satellite are available as a starting point. These data have been collected during seven years between July 2006 and June 2013. In addition, the practical application of the ITU-R P.618-10 method for tropospheric scintillation modeling of Earth-space telecommunication systems has been the theoretical reference used. This information allows us to examine the validity of the practical application of the ITU-R P.1853-1 method for tropospheric scintillation time series synthesis. In this synthesizer, the time series of water vapor content in a vertical column will be substituted by actual data from meteorological databases ERA-Interim and GNSS in order to test the impact of this change. The first part of the Project begins with the exposition of the theoretical foundations of the various impairments that affect propagation in a satellite link, including the most important prediction models. Subsequently, it presents the theoretical foundations that describe the time series, and its application to communication links modeling. Finally, the specific resources used in the experiment are described. The second part of the Project starts with the exhibition of the data analysis process to obtain results that characterize the tropospheric scintillation in the absence of precipitation, or dry scintillation, for the three study cases on the experimental data, on the P.618-10 model and on the P.1853-1 synthesizer with its modifications. The fact that the same conditions of frequency, location, climate and period of analysis are always maintained, allows us to draw conclusions and propose future research lines by comparing the results.
Resumo:
Independientemente de la existencia de técnicas altamente sofisticadas y capacidades de cómputo cada vez más elevadas, los problemas asociados a los robots que interactúan con entornos no estructurados siguen siendo un desafío abierto en robótica. A pesar de los grandes avances de los sistemas robóticos autónomos, hay algunas situaciones en las que una persona en el bucle sigue siendo necesaria. Ejemplos de esto son, tareas en entornos de fusión nuclear, misiones espaciales, operaciones submarinas y cirugía robótica. Esta necesidad se debe a que las tecnologías actuales no pueden realizar de forma fiable y autónoma cualquier tipo de tarea. Esta tesis presenta métodos para la teleoperación de robots abarcando distintos niveles de abstracción que van desde el control supervisado, en el que un operador da instrucciones de alto nivel en la forma de acciones, hasta el control bilateral, donde los comandos toman la forma de señales de control de bajo nivel. En primer lugar, se presenta un enfoque para llevar a cabo la teleoperación supervisada de robots humanoides. El objetivo es controlar robots terrestres capaces de ejecutar tareas complejas en entornos de búsqueda y rescate utilizando enlaces de comunicación limitados. Esta propuesta incorpora comportamientos autónomos que el operador puede utilizar para realizar tareas de navegación y manipulación mientras se permite cubrir grandes áreas de entornos remotos diseñados para el acceso de personas. Los resultados experimentales demuestran la eficacia de los métodos propuestos. En segundo lugar, se investiga el uso de dispositivos rentables para telemanipulación guiada. Se presenta una aplicación que involucra un robot humanoide bimanual y un traje de captura de movimiento basado en sensores inerciales. En esta aplicación, se estudian las capacidades de adaptación introducidas por el factor humano y cómo estas pueden compensar la falta de sistemas robóticos de alta precisión. Este trabajo es el resultado de una colaboración entre investigadores del Biorobotics Laboratory de la Universidad de Harvard y el Centro de Automática y Robótica UPM-CSIC. En tercer lugar, se presenta un nuevo controlador háptico que combina velocidad y posición. Este controlador bilateral híbrido hace frente a los problemas relacionados con la teleoperación de un robot esclavo con un gran espacio de trabajo usando un dispositivo háptico pequeño como maestro. Se pueden cubrir amplias áreas de trabajo al cambiar automáticamente entre los modos de control de velocidad y posición. Este controlador háptico es ideal para sistemas maestro-esclavo con cinemáticas diferentes, donde los comandos se transmiten en el espacio de la tarea del entorno remoto. El método es validado para realizar telemanipulación hábil de objetos con un robot industrial. Por último, se introducen dos contribuciones en el campo de la manipulación robótica. Por un lado, se presenta un nuevo algoritmo de cinemática inversa, llamado método iterativo de desacoplamiento cinemático. Este método se ha desarrollado para resolver el problema cinemático inverso de un tipo de robot de seis grados de libertad donde una solución cerrada no está disponible. La eficacia del método se compara con métodos numéricos convencionales. Además, se ha diseñado una taxonomía robusta de agarres que permite controlar diferentes manos robóticas utilizando una correspondencia, basada en gestos, entre los espacios de trabajo de la mano humana y de la mano robótica. El gesto de la mano humana se identifica mediante la lectura de los movimientos relativos del índice, el pulgar y el dedo medio del usuario durante las primeras etapas del agarre. ABSTRACT Regardless of the availability of highly sophisticated techniques and ever increasing computing capabilities, the problems associated with robots interacting with unstructured environments remains an open challenge. Despite great advances in autonomous robotics, there are some situations where a humanin- the-loop is still required, such as, nuclear, space, subsea and robotic surgery operations. This is because the current technologies cannot reliably perform all kinds of task autonomously. This thesis presents methods for robot teleoperation strategies at different levels of abstraction ranging from supervisory control, where the operator gives high-level task actions, to bilateral teleoperation, where the commands take the form of low-level control inputs. These strategies contribute to improve the current human-robot interfaces specially in the case of slave robots deployed at large workspaces. First, an approach to perform supervisory teleoperation of humanoid robots is presented. The goal is to control ground robots capable of executing complex tasks in disaster relief environments under constrained communication links. This proposal incorporates autonomous behaviors that the operator can use to perform navigation and manipulation tasks which allow covering large human engineered areas of the remote environment. The experimental results demonstrate the efficiency of the proposed methods. Second, the use of cost-effective devices for guided telemanipulation is investigated. A case study involving a bimanual humanoid robot and an Inertial Measurement Unit (IMU) Motion Capture (MoCap) suit is introduced. Herein, it is corroborated how the adaptation capabilities offered by the human-in-the-loop factor can compensate for the lack of high-precision robotic systems. This work is the result of collaboration between researchers from the Harvard Biorobotics Laboratory and the Centre for Automation and Robotics UPM-CSIC. Thirdly, a new haptic rate-position controller is presented. This hybrid bilateral controller copes with the problems related to the teleoperation of a slave robot with large workspace using a small haptic device as master. Large workspaces can be covered by automatically switching between rate and position control modes. This haptic controller is ideal to couple kinematic dissimilar master-slave systems where the commands are transmitted in the task space of the remote environment. The method is validated to perform dexterous telemanipulation of objects with a robotic manipulator. Finally, two contributions for robotic manipulation are introduced. First, a new algorithm, the Iterative Kinematic Decoupling method, is presented. It is a numeric method developed to solve the Inverse Kinematics (IK) problem of a type of six-DoF robotic arms where a close-form solution is not available. The effectiveness of this IK method is compared against conventional numerical methods. Second, a robust grasp mapping has been conceived. It allows to control a wide range of different robotic hands using a gesture based correspondence between the human hand space and the robotic hand space. The human hand gesture is identified by reading the relative movements of the index, thumb and middle fingers of the user during the early stages of grasping.
Resumo:
Los nitruros del grupo III (InN, GaN y AlN) se han asentado como semiconductores importantes para la fabricación de dispositivos optoelectrónicos gracias al amplio rango de la banda prohibida ("bandgap") de estos materiales (0.7-6.2 eV) y a que dicho bandgap sea directo. Asimismo, el marcado carácter iónico de los enlaces en estos materiales les confiere una gran estabilidad química y térmica, haciéndoles así buenos candidatos para trabajar en entornos agresivos. La técnica de crecimiento epitaxial más extendida para los nitruros del grupo III es la epitaxia en fase vapor mediante precursores metalorgánicos (MOVPE) y mediante ésta se han obtenido dispositivos optoelectrónicos de alta eficiencia como los comercializados por Nichia, Sony y Toshiba entre otros. Esta técnica necesita de alta temperatura para la pirólisis de los gases reactivos, lo que a su vez incrementa la calidad cristalina de los materiales obtenidos. Sin embargo, tiene como inconvenientes la existencia de niveles altos de carbono, hidrógeno y otros compuestos orgánicos, procedentes de los precursores, que puede provocar efectos negativos de pasivación sobre los dopantes. Otra técnica de crecimiento utilizada para la obtención de nitruros del grupo III es por medio de epitaxia de haces moleculares (MBE) la cual presenta algunas ventajas sobre el MOVPE, por ejemplo: (i) el entorno de ultra alto vacío requerido (presiones base del orden de 10-11 Torr) minimiza la concentración de impurezas incorporadas al material, (ii) la pureza de los materiales empleados en las fuentes de efusión siempre superan el 99,9999%, (iii) la posibilidad de interrumpir el flujo de cualquiera de los elementos (Ga, In, Al, Si, Mg, etc.) de una manera abrupta (mediante el uso de obturadores mecánicos) dando lugar a intercaras planas a nivel atómico, y (iv) la posibilidad de reducir la velocidad de crecimiento (1 nm/min) permitiendo un control preciso del espesor crecido, y por tanto, fabricar estructuras semiconductoras complejas como las basadas en pozos cuánticos. Desde 1986 hasta la actualidad se ha mejorado mucho la calidad cristalina de las capas de InN, obteniéndose actualmente mediante estas técnicas de crecimiento, capas de InN con un valor de bandgap en torno 0.7 eV. Gracias a los numerosos trabajos presentados sobre las propiedades ópticas de este material, el intervalo de operación de los nitruros del grupo III dentro del espectro electromagnético se ha extendido hasta el infrarrojo cercano. Este hecho ha despertado un gran interés en nuevas aplicaciones, como en el campo fotovoltáico con la fabricación de células solares de multi-unión de alta eficiencia cubriendo todo el espectro solar. Se ha detectado también en este material una importante acumulación de carga eléctrica en la superficie, del orden de 1013 e-cm-2. Esta cantidad de electrones parecen acumularse en una capa de unos 4 a 6 nanómetros, incrementando la conductividad de las capas de InN. Si bien esta alta carga superficial podría utilizarse para la fabricación de sensores, ésta no es la única característica que apoya el uso del InN para la fabricación de este tipo de dispositivos. El principal objetivo de esta tesis es el estudio y optimización del crecimiento mediante la técnica de MBE de capas de nitruro de indio para aplicaciones en el rango del infrarrojo cercano. La optimización conlleva el control de la morfología y el estudio de las propiedades ópticas y eléctricas de las capas crecidas. Este objetivo principal se puede concretar en varios puntos relacionados con (i) el crecimiento de capas de nitruro de indio (InN) y sus aleaciones con galio (InGaN) y aluminio (AlInN), (ii) la caracterización de dichas capas, y (iii) el diseño, crecimiento y caracterización de heteroestructuras para aplicaciones en el rango del infrarrojo cercano. El crecimiento de capas de InN utilizando diferentes sustratos se ve afectado fundamentalmente por la temperatura de crecimiento pudiéndose afirmar que es el parámetro más crítico. El otro parámetro importante que gobierna la morfología y la calidad cristalina de las capas es la razón III/V que ha de ser precisamente controlado. Con razones III/V<<1 y a una temperatura lo suficientemente baja, se obtiene un material formado por nanocristales columnares de muy alta calidad, libres de defectos extendidos y completamente relajados, con una emisión muy intensa. Para la misma temperatura que en el caso anterior y razones III/V ligeramente por encima de estequiometría (III/V > 1), las capas obtenidas presentan una morfología compacta. Aunque también es posible obtener capas compactas en condiciones nominalmente ricas en nitrógeno (III/V <1) a temperaturas superiores.
Resumo:
Los servicios en red que conocemos actualmente están basados en documentos y enlaces de hipertexto que los relacionan entre sí sin aportar verdadera información acerca de los contenidos que representan. Podría decirse que se trata de “una red diseñada por personas para ser interpretada por personas”. El objetivo principal de los últimos años es encaminar esta red hacia una web de conocimiento, en la que la información pueda ser interpretada por agentes computerizados de manera automática. Para llevar a cabo esta transformación es necesaria la utilización de nuevas tecnologías especialmente diseñadas para la descripción de contenidos como son las ontologías. Si bien las redes convencionales están evolucionando, no son las únicas que lo están haciendo. El rápido crecimiento de las redes de sensores y el importante aumento en el número de dispositivos conectados a internet, hace necesaria la incorporación de tecnologías de la web semántica a este tipo de redes. Para la realización de este Proyecto de Fin de Carrera se utilizará la ontología SSN, diseñada para la descripción semántica de sensores y las redes de las que forman parte con el fin de permitir una mejor interacción entre los dispositivos y los sistemas que hacen uso de ellos. El trabajo desarrollado a lo largo de este Proyecto de Fin de Carrera gira en torno a esta ontología, siendo el principal objetivo la generación semiautomática de código a partir de un modelo de sistemas descrito en función de las clases y propiedades proporcionadas por SSN. Para alcanzar este fin se dividirá el proyecto en varias partes. Primero se realizará un análisis de la ontología mencionada. A continuación se describirá un sistema simulado de sensores y por último se implementarán las aplicaciones para la generación automática de interfaces y la representación gráfica de los dispositivos del sistema a partir de la representación del éste en un fichero de tipo OWL. ABSTRACT. The web we know today is based on documents and hypertext links that relate these documents with each another, without providing consistent information about the contents they represent. It could be said that its a network designed by people to be used by people. The main goal of the last couple of years is to guide this network into a web of knowledge, where information can be automatically processed by machines. This transformation, requires the use of new technologies specially designed for content description such as ontologies. Nowadays, conventional networks are not the only type of networks evolving. The use of sensor networks and the number of sensor devices connected to the Internet is rapidly increasing, making the use the integration of semantic web technologies to this kind of networks completely necessary. The SSN ontology will be used for the development of this Final Degree Dissertation. This ontology was design to semantically describe sensors and the networks theyre part of, allowing a better interaction between devices and the systems that use them. The development carried through this Final Degree Dissertation revolves around this ontology and aims to achieve semiautomatic code generation starting from a system model described based on classes and properties provided by SSN. To reach this goal, de Dissertation will be divided in several parts. First, an analysis about the mentioned ontology will be made. Following this, a simulated sensor system will be described, and finally, the implementation of the applications will take place. One of these applications will automatically generate de interfaces and the other one will graphically represents the devices in the sensor system, making use of the system representation in an OWL file.
Resumo:
El desarrollo de sensores está ganando cada vez mayor importancia debido a la concienciación ciudadana sobre el medio ambiente haciendo que su desarrollo sea muy elevado en todas las disciplinas, entre las que cabe destacar, la medicina, la biología y la química. A pesar de la existencia de estos dispositivos, este área está aún por mejorar, ya que muchos de los materiales propuestos hasta el momento e incluso los ya comercializados muestran importantes carencias de funcionamiento, eficiencia e integrabilidad entre otros. Para la mejora de estos dispositivos, se han propuesto diversas aproximaciones basadas en nanosistemas. Quizá, uno de las más prometedoras son las nanoestructuras de punto cuántico, y en particular los semiconductores III-V basados en la consolidada tecnología de los arseniuros, las cuáles ofrecen excelentes propiedades para su uso como sensores. Además, estudios recientes demuestran su gran carácter sensitivo al medio ambiente, la posibilidad de funcionalizar la superficie para la fabricación de sensores interdisciplinares y posibilididad de mejorar notablemente su eficiencia. A lo largo de esta tesis, nos centramos en la investigación de SQD de In0.5Ga0.5As sobre substratos de GaAs(001) para el desarrollo de sensores de humedad. La tesis abarca desde el diseño, crecimiento y caracterización de las muestras hasta la el posterior procesado y caracterización de los dispositivos finales. La optimización de los parámetros de crecimiento es fundamental para conseguir una nanoestructura con las propiedades operacionales idóneas para un fin determinado. Como es bien sabido en la literatura, los parámetros de crecimiento (temperatura de crecimiento, relación de flujos del elemento del grupo V y del grupo I II (V/III), velocidad de crecimiento y tratamiento térmico después de la formación de la capa activa) afectan directamente a las propiedades estructurales, y por tanto, operacionales de los puntos cuánticos (QD). En esta tesis, se realiza un estudio de las condiciones de crecimiento para el uso de In0.5Ga0.5As SQDs como sensores. Para los parámetros relacionados con la temperatura de crecimiento de los QDs y la relación de flujos V / I I I se utilizan los estudios previamente realizados por el grupo. Mientras que este estudio se centrará en la importancia de la velocidad de crecimiento y en el tratamiento térmico justo después de la nucleación de los QDs. Para ello, se establece la temperatura de creciemiento de los QDs en 430°C y la relación de flujos V/III en 20. Como resultado, los valores más adecuados que se obtienen para la velocidad de crecimiento y el tratamiento térmico posterior a la formación de los puntos son, respectivamente, 0.07ML/s y la realización de una bajada y subida brusca de la temperatura del substrato de 100°C con respecto a la temperatura de crecimiento de los QDs. El crecimiento a una velocidad lo suficientemente alta que permita la migración de los átomos por la superficie, pero a su vez lo suficientemente baja para que se lleve a cabo la nucleación de los QDs; en combinación con el tratamiento brusco de temperatura que hace que se conserve la forma y composición de los QDs, da lugar a unos SQDs con un alto grado de homogeneidad y alta densidad superficial. Además, la caracterización posterior indica que estas nanoestructuras de gran calidad cristalina presentan unas propiedades ópticas excelentes incluso a temperatura ambiente. Una de las características por la cual los SQD de Ino.5Gao.5As se consideran candidatos prometedores para el desarrollo de sensores es el papel decisivo que juega la superficie por el mero hecho de estar en contacto directo con las partículas del ambiente y, por tanto, por ser capaces de interactuar con sus moléculas. Así pues, con el fin de demostrar la idoneidad de este sistema para dicha finalidad, se evalúa el impacto ambiental en las propiedades ópticas y eléctricas de las muestras. En un primer lugar, se analiza el efecto que tiene el medio en las propiedades ópticas. Para dicha evaluación se compara la variación de las propiedades de emisión de una capa de puntos enterrada y una superficial en distintas condiciones externas. El resultado que se obtiene es muy claro, los puntos enterrados no experimentan un cambio óptico apreciable cuando se varían las condiciones del entorno; mientras que, la emisión de los SQDs se modifica significativamente con las condiciones del medio. Por una parte, la intensidad de emisión de los puntos superficiales desaparece en condiciones de vacío y decrece notablemente en atmósferas secas de gases puros (N2, O2). Por otra parte, la fotoluminiscencia se conserva en ambientes húmedos. Adicionalmente, se observa que la anchura a media altura y la longitud de onda de emisión no se ven afectadas por los cambios en el medio, lo que indica, que las propiedades estructurales de los puntos se conservan al variar la atmósfera. Estos resultados apuntan directamente a los procesos que tienen lugar en la superficie entre estados confinados y superficiales como responsables principales de este comportamiento. Así mismo, se ha llevado a cabo un análisis más detallado de la influencia de la calidad y composición de la atmósfera en las propiedades ópticas de los puntos cuánticos superficiales. Para ello, se utilizan distintas sustancias con diferente polaridad, composición atómica y masa molecular. Como resultado se observa que las moléculas de menor polaridad y más pesadas causan una mayor variación en la intensidad de emisión. Además, se demuestra que el oxígeno juega un papel decisivo en las propiedades ópticas. En presencia de moléculas que contienen oxígeno, la intensidad de fotoluminiscencia disminuye menos que en atmósferas constituidas por especies que no contienen oxígeno. Las emisión que se observa respecto a la señal en aire es del 90% y del 77%, respectivamente, en atmósferas con presencia o ausencia de moléculas de oxígeno. El deterioro de la señal de emisión se atribuye a la presencia de defectos, enlaces insaturados y, en general, estados localizados en la superficie. Estos estados actúan como centros de recombinación no radiativa y, consecuentemente, se produce un empeoramiento de las propiedades ópticas de los SQDs. Por tanto, la eliminación o reducción de la densidad de estos estados superficiales haría posible una mejora de la intensidad de emisión. De estos experimentos de fotoluminiscencia, se deduce que las interacciones entre las moléculas presentes en la atmósfera y la superficie de la muestra modifican la superficie. Esta alteración superficial se traduce en un cambio significativo en las propiedades de emisión. Este comportamiento se atribuye a la posible adsorción de moléculas sobre la superficie pasivando los centros no radiativos, y como consecuencia, mejorando las propiedades ópticas. Además, los resultados demuestran que las moléculas que contienen oxígeno con mayor polaridad y más ligeras son adsorbidas con mayor facilidad, lo que hace que la intensidad óptica sufra variaciones despreciables con respecto a la emisión en aire. Con el fin de desarrollar sensores, las muestras se procesan y los dispositivos se caracterizan eléctricamente. El procesado consiste en dos contactos cuadrados de una aleación de Ti/Au. Durante el procesado, lo más importante a tener en cuenta es no realizar ningún ataque o limpieza que pueda dañar la superficie y deteriorar las propiedades de las nanostructuras. En este apartado, se realiza un análisis completo de una serie de tres muestras: GaAs (bulk), un pozo cuántico superficial (SQW) de Ino.5Gao.5As y SQDs de Ino.5Gao.5As. Para ello, a cada una de las muestras se le realizan medidas de I-V en distintas condiciones ambientales. En primer lugar, siguiendo los resultados obtenidos ópticamente, se lleva a cabo una comparación de la respuesta eléctrica en vacío y aire. A pesar de que todas las muestras presentan un carácter más resistivo en vacío que en aire, se observa una mayor influencia sobre la muestra de SQD. En vacío, la resistencia de los SQDs decrece un 99% respecto de su valor en aire, mientras que la variación de la muestras de GaAs e Ino.5Gao.5As SQW muestran una reducción, respectivamente, del 31% y del 20%. En segundo lugar, se realiza una evaluación aproximada del posible efecto de la humedad en la resistencia superficial de las muestras mediante la exhalación humana. Como resultado se obtiene, que tras la exhalación, la resistencia disminuye bruscamente y recupera su valor inicial cuando dicho proceso concluye. Este resultado preliminar indica que la humedad es un factor crítico en las propiedades eléctricas de los puntos cuánticos superficiales. Para la determinación del papel de la humedad en la respuesta eléctrica, se somete a las muestras de SQD y SQW a ambientes con humedad relativa (RH, de la siglas del inglés) controlada y se analiza el efecto sobre la conductividad superficial. Tras la variación de la RH desde 0% hasta el 70%, se observa que la muestra SQW no cambia su comportamiento eléctrico al variar la humedad del ambiente. Sin embargo, la respuesta de la muestra SQD define dos regiones bien diferenciadas, una de alta sensibilidad para valores por debajo del 50% de RH, en la que la resistencia disminuye hasta en un orden de magnitud y otra, de baja sensibilidad (>50%), donde el cambio de la resistencia es menor. Este resultado resalta la especial relevancia no sólo de la composición sino también de la morfología de la nanostructura superficial en el carácter sensitivo de la muestra. Por último, se analiza la influencia de la iluminación en la sensibilidad de la muestra. Nuevamente, se somete a las muestras SQD y SQW a una irradiación de luz de distinta energía y potencia a la vez que se varía controladamente la humedad ambiental. Una vez más, se observa que la muestra SQW no presenta ninguna variación apreciable con las alteraciones del entorno. Su resistencia superficial permanece prácticamente inalterable tanto al modificar la potencia de la luz incidente como al variar la energía de la irradiación. Por el contrario, en la muestra de SQD se obtiene una reducción la resistencia superficial de un orden de magnitud al pasar de condiciones de oscuridad a iluminación. Con respecto a la potencia y energía de la luz incidente, se observa que a pesar de que la muestra no experimenta variaciones notables con la potencia de la irradiación, esta sufre cambios significativos con la energía de la luz incidente. Cuando se ilumina con energías por encima de la energía de la banda prohibida (gap) del GaAs (Eg ~1.42 eV ) se produce una reducción de la resistencia de un orden de magnitud en atmósferas húmedas, mientras que en atmósferas secas la conductividad superficial permanece prácticamente constante. Sin embargo, al inicidir con luz de energía menor que Eg, el efecto que se produce en la respuesta eléctrica es despreciable. Esto se atribuye principalmente a la densidad de portadores fotoactivados durante la irradiación. El volumen de portadores excita dos depende de la energía de la luz incidente. De este modo, cuando la luz que incide tiene energía menor que el gap, el volumen de portadores generados es pequeño y no contribuye a la conductividad superficial. Por el contrario, cuando la energía de la luz incidente es alta (Eg), el volumen de portadores activados es elevado y éstos contribuyen significantemente a la conductividad superficial. La combinación de ambos agentes, luz y humedad, favorece el proceso de adsorción de moléculas y, por tanto, contribuye a la reducción de la densidad de estados superficiales, dando lugar a una modificación de la estructura electrónica y consecuentemente favoreciendo o dificultando el transporte de portadores. ABSTRACT Uncapped three-dimensional (3D) nanostructures have been generally grown to assess their structural quality. However, the tremendous growing importance of the impact of the environment on life has become such nanosystems in very promising candidates for the development of sensing devices. Their direct exposure to changes in the local surrounding may influence their physical properties being a perfect sign of the atmosphere quality. The goal of this thesis is the research of Ino.5Gao.5As surface quantum dots (SQDs) on GaAs(001), covering from their growth to device fabrication, for sensing applications. The achievement of this goal relies on the design, growth and sample characterization, along with device fabrication and characterization. The first issue of the thesis is devoted to analyze the main growth parameters affecting the physical properties of the Ino.5Gao.5As SQDs. It is well known that the growing conditions (growth temperature , deposition rate, V/III flux ratio and treatment after active layer growth) directly affect the physical properties of the epilayer. In this part, taking advantage of the previous results in the group regarding Ino.5Gao.5As QD growth temperature and V/III ratio, the effect of the growth rate and the temperature treatment after QDs growth nucleation is evaluated. Setting the QDs growth temperature at 430°C and the V/III flux ratio to ~20, it is found that the most appropriate conditions rely on growing the QDs at 0.07ML/s and just after QD nucleation, rapidly dropping and again raising 100°C the substrate temperature with respect to the temperature of QD growth. The combination of growing at a fast enough growth rate to promote molecule migration but sufficiently slow to allow QD nucleation, together with the sharp variation of the temperature preserving their shape and composition yield to high density, homogeneous Ino.5Gao.5As SQDs. Besides, it is also demonstrated that this high quality SQDs show excellent optical properties even at room temperature (RT). One of the characteristics by which In0.5Ga0.5As/GaAs SQDs are considered promising candidates for sensing applications is the crucial role that surface plays when interacting with the gases constituting the atmosphere. Therefore, in an attempt to develop sensing devices, the influence of the environment on the physical properties of the samples is evaluated. By comparing the resulting photoluminescence (PL) of SQDs with buried QDs (BQDs), it is found that BQDs do not exhibit any significant variation when changing the environmental conditions whereas, the external conditions greatly act on the SQDs optical properties. On one hand, it is evidenced that PL intensity of SQDs sharply quenches under vacuum and clearly decreases under dry-pure gases atmospheres (N2, O2). On the other hand, it is shown that, in water containing atmospheres, the SQDs PL intensity is maintained with respect to that in air. Moreover, it is found that neither the full width at half maximun nor the emission wavelength manifest any noticeable change indicating that the QDs are not structurally altered by the external atmosphere. These results decisively point to the processes taking place at the surface such as coupling between confined and surface states, to be responsible of this extraordinary behavior. A further analysis of the impact of the atmosphere composition on the optical characteristics is conducted. A sample containing one uncapped In0.5Ga0.5As QDs layer is exposed to different environments. Several solvents presenting different polarity, atomic composition and molecular mass, are used to change the atmosphere composition. It is revealed that low polarity and heavy molecules cause a greater variation on the PL intensity. Besides, oxygen is demonstrated to play a decisive role on the PL response. Results indicate that in presence of oxygen-containing molecules, the PL intensity experiments a less reduction than that suffered in presence of nonoxygen-containing molecules, 90% compared to 77% signal respect to the emission in air. In agreement with these results, it is demonstrated that high polarity and lighter molecules containing oxygen are more easily adsorbed, and consequently, PL intensity is less affected. The presence of defects, unsaturated bonds and in general localized states in the surface are proposed to act as nonradiative recombination centers deteriorating the PL emission of the sample. Therefore, suppression or reduction of the density of such states may lead to an increase or, at least, conservation of the PL signal. This research denotes that the interaction between sample surface and molecules in the atmosphere modifies the surface characteristics altering thus the optical properties. This is attributed to the likely adsoption of some molecules onto the surface passivating the nonradiative recombination centers, and consequently, not deteriorating the PL emission. Aiming for sensors development, samples are processed and electrically characterized under different external conditions. Samples are processed with two square (Ti/Au) contacts. During the processing, especial attention must be paid to the surface treatment. Any process that may damage the surface such as plasma etching or annealing must be avoided to preserve the features of the surface nanostructures. A set of three samples: a GaAs (bulk), In0.5Ga0.5As SQDs and In0.5Ga0.5As surface quantum well (SQW) are subjected to a throughout evaluation. I-V characteristics are measured following the results from the optical characterization. Firstly, the three samples are exposed to vacuum and air. Despite the three samples exhibit a more resistive character in vacuum than in air, it is revealed a much more clear influence of the pressure atmosphere in the SQDs sample. The sheet resistance (Rsh) of SQDs decreases a 99% from its response value under vacuum to its value in air, whereas Rsh of GaAs and In0.5Ga0.5As SQW reduces its value a 31% and a 20%, respectively. Secondly, a rough analysis of the effect of the human breath on the electrical response evidences the enormous influence of moisture (human breath is composed by several components but the one that overwhelms all the rest is the high concentration of water vapor) on the I-V characteristics. Following this result, In0.5Ga0.5As SQDs and In0.5Ga0.5As SQW are subjected to different controlled relative humidity (RH) environments (from 0% to 70%) and electrically characterized. It is found that SQW shows a nearly negligible Rsh variation when increasing the RH in the surroundings. However, the response of SQDs to changes in the RH defines two regions. Below 50%, high sensitive zone, Rsh of SQD decreases by more than one order of magnitude, while above 50% the dependence of Rsh on the RH becomes weaker. These results remark the role of the surface and denote the existence of a finite number of surface states. Nevertheless, most significantly, they highlight the importance not only of the material but also of the morphology. Finally, the impact of the illumination is determined by means of irradiating the In0.5Ga0.5As SQDs and In0.5Ga0.5As SQW samples with different energy and power sources. Once again, SQW does not exhibit any correlation between the surface conductivity and the external conditions. Rsh remains nearly unalterable independently of the energy and power of the incident light. Conversely, Rsh of SQD experiences a decay of one order of magnitude from dark-to-photo conditions. This is attributed to the less density of surface states of SQW compared to that of SQDs. Additionally, a different response of Rsh of SQD with the energy of the impinging light is found. Illuminating with high energy light results in a Rsh reduction of one order of mag nitude under humid atmospheres, whereas it remains nearly unchanged under dry environments. On the contrary, light with energy below the bulk energy bandgap (Eg), shows a negligible effect on the electrical properties regardless the local moisture. This is related to the density of photocarriers generated while lighting up. Illuminating with excitation energy below Eg affects a small absorption volume and thus, a low density of photocarriers may be activated leading to an insignificant contribution to the conductivity. Nonetheless, irradiating with energy above the Eg can excite a high density of photocarriers and greatly improve the surface conductivity. These results demonstrate that both illumination and humidity are therefore needed for sensing. The combination of these two agents improves the surface passivation by means of molecule adsorption reducing the density of surface states, thus modifying the electronic structures, and consequently, promoting the carrier motion.
Resumo:
Esta tesis estudia la evolución estructural de conjuntos de neuronas como la capacidad de auto-organización desde conjuntos de neuronas separadas hasta que forman una red (clusterizada) compleja. Esta tesis contribuye con el diseño e implementación de un algoritmo no supervisado de segmentación basado en grafos con un coste computacional muy bajo. Este algoritmo proporciona de forma automática la estructura completa de la red a partir de imágenes de cultivos neuronales tomadas con microscopios de fase con una resolución muy alta. La estructura de la red es representada mediante un objeto matemático (matriz) cuyos nodos representan a las neuronas o grupos de neuronas y los enlaces son las conexiones reconstruidas entre ellos. Este algoritmo extrae también otras medidas morfológicas importantes que caracterizan a las neuronas y a las neuritas. A diferencia de otros algoritmos hasta el momento, que necesitan de fluorescencia y técnicas inmunocitoquímicas, el algoritmo propuesto permite el estudio longitudinal de forma no invasiva posibilitando el estudio durante la formación de un cultivo. Además, esta tesis, estudia de forma sistemática un grupo de variables topológicas que garantizan la posibilidad de cuantificar e investigar la progresión de las características principales durante el proceso de auto-organización del cultivo. Nuestros resultados muestran la existencia de un estado concreto correspondiente a redes con configuracin small-world y la emergencia de propiedades a micro- y meso-escala de la estructura de la red. Finalmente, identificamos los procesos físicos principales que guían las transformaciones morfológicas de los cultivos y proponemos un modelo de crecimiento de red que reproduce el comportamiento cuantitativamente de las observaciones experimentales. ABSTRACT The thesis analyzes the morphological evolution of assemblies of living neurons, as they self-organize from collections of separated cells into elaborated, clustered, networks. In particular, it contributes with the design and implementation of a graph-based unsupervised segmentation algorithm, having an associated very low computational cost. The processing automatically retrieves the whole network structure from large scale phase-contrast images taken at high resolution throughout the entire life of a cultured neuronal network. The network structure is represented by a mathematical object (a matrix) in which nodes are identified neurons or neurons clusters, and links are the reconstructed connections between them. The algorithm is also able to extract any other relevant morphological information characterizing neurons and neurites. More importantly, and at variance with other segmentation methods that require fluorescence imaging from immunocyto- chemistry techniques, our measures are non invasive and entitle us to carry out a fully longitudinal analysis during the maturation of a single culture. In turn, a systematic statistical analysis of a group of topological observables grants us the possibility of quantifying and tracking the progression of the main networks characteristics during the self-organization process of the culture. Our results point to the existence of a particular state corresponding to a small-world network configuration, in which several relevant graphs micro- and meso-scale properties emerge. Finally, we identify the main physical processes taking place during the cultures morphological transformations, and embed them into a simplified growth model that quantitatively reproduces the overall set of experimental observations.
Resumo:
Esta tesis estudia la evolución estructural de conjuntos de neuronas como la capacidad de auto-organización desde conjuntos de neuronas separadas hasta que forman una red (clusterizada) compleja. Esta tesis contribuye con el diseño e implementación de un algoritmo no supervisado de segmentación basado en grafos con un coste computacional muy bajo. Este algoritmo proporciona de forma automática la estructura completa de la red a partir de imágenes de cultivos neuronales tomadas con microscopios de fase con una resolución muy alta. La estructura de la red es representada mediante un objeto matemático (matriz) cuyos nodos representan a las neuronas o grupos de neuronas y los enlaces son las conexiones reconstruidas entre ellos. Este algoritmo extrae también otras medidas morfológicas importantes que caracterizan a las neuronas y a las neuritas. A diferencia de otros algoritmos hasta el momento, que necesitan de fluorescencia y técnicas inmunocitoquímicas, el algoritmo propuesto permite el estudio longitudinal de forma no invasiva posibilitando el estudio durante la formación de un cultivo. Además, esta tesis, estudia de forma sistemática un grupo de variables topológicas que garantizan la posibilidad de cuantificar e investigar la progresión de las características principales durante el proceso de auto-organización del cultivo. Nuestros resultados muestran la existencia de un estado concreto correspondiente a redes con configuracin small-world y la emergencia de propiedades a micro- y meso-escala de la estructura de la red. Finalmente, identificamos los procesos físicos principales que guían las transformaciones morfológicas de los cultivos y proponemos un modelo de crecimiento de red que reproduce el comportamiento cuantitativamente de las observaciones experimentales. ABSTRACT The thesis analyzes the morphological evolution of assemblies of living neurons, as they self-organize from collections of separated cells into elaborated, clustered, networks. In particular, it contributes with the design and implementation of a graph-based unsupervised segmentation algorithm, having an associated very low computational cost. The processing automatically retrieves the whole network structure from large scale phase-contrast images taken at high resolution throughout the entire life of a cultured neuronal network. The network structure is represented by a mathematical object (a matrix) in which nodes are identified neurons or neurons clusters, and links are the reconstructed connections between them. The algorithm is also able to extract any other relevant morphological information characterizing neurons and neurites. More importantly, and at variance with other segmentation methods that require fluorescence imaging from immunocyto- chemistry techniques, our measures are non invasive and entitle us to carry out a fully longitudinal analysis during the maturation of a single culture. In turn, a systematic statistical analysis of a group of topological observables grants us the possibility of quantifying and tracking the progression of the main networks characteristics during the self-organization process of the culture. Our results point to the existence of a particular state corresponding to a small-world network configuration, in which several relevant graphs micro- and meso-scale properties emerge. Finally, we identify the main physical processes taking place during the cultures morphological transformations, and embed them into a simplified growth model that quantitatively reproduces the overall set of experimental observations.