67 resultados para Operadores


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años se ha producido un aumento constante en la potencia fotovoltaica instalada a nivel mundial. Este crecimiento, acompañado de crecimientos similares en el resto de energías renovables, está motivado por la necesidad de dar respuesta a varios de los retos que planteados al sector energético: creciente preocupación por los efectos en el medioambiente de las emisiones de gases de efecto invernadero, entre los que cabe destacar el cambio climático (IPCC 2011); el inevitable agotamiento de algunas fuentes tradicionales de energía eléctrica, basadas en combustibles fósiles, que llevara aparejado en las próximas décadas un aumento en el coste asociado a producir energía eléctrica mediante estas fuentes como indican Bentley (2002), Gori (2007), Kjastard (2009), Owen (2010) y Hughes (2011), y la necesidad para algunos países de asegurar su independencia energética, factor especialmente crítico para los países europeos debido a su escasez en reservas naturales de combustibles fósiles. La energía solar fotovoltaica, al igual que el resto de energías renovables, proporciona energía eléctrica de manera limpia y segura y plantea soluciones a los problemas mencionados. Asimismo, las energías renovables también presentan beneficios sociales como la creación de empleo cualificado en actividades de ingeniería, fabricación, instalación y mantenimiento, así como en la investigación, desarrollo e innovación. Es por estos motivos que las energías renovables se han visto beneficiadas a lo largo de las últimas décadas de mecanismos favorables, subvenciones y primas a la producción, conducentes a su implantación y desarrollo. La Figura 1.1 muestra la evolución de la potencia total instalada a nivel mundial y su tasa de crecimiento del 2000 al 2012, de acuerdo con datos proporcionados por la Agencia Internacional de la Energía: IEA (2012a, 2013). Los datos incluidos en la Figura 1.1 solo incluyen a los países que pertenecen a la Agencia Internacional de la Energía: Alemania, Australia, Austria, Bélgica, Canadá, China, Corea, Dinamarca, España, Estados Unidos, Finlandia, Francia, Holanda, Israel, Italia, Japón, Malasia, México, Noruega, Portugal, Reino Unido, Suecia, Suiza y Turquía. La potencia instalada muestra un crecimiento de tipo exponencial, incrementándose cada año un 41,6% de media. A los 88,5 GWP de potencia fotovoltaica instalada en todos los países miembros de la IEA a finales de 2012 habría que añadir, siempre según la IEA (2013), 7 GWP adicionales repartidos en seis países que no pertenecen a este organismo: Republica Checa, Grecia, Bulgaria, Eslovaquia, Ucrania y Tailandia. Esta tendencia en la tasa de crecimiento se mantiene incluso en los últimos años del periodo cuando varios países han reducido los incentivos a las energías renovables. Como consecuencia de este crecimiento en algunos países la proporción de energía eléctrica total de origen fotovoltaico empieza a ser apreciable. Para los casos de España, Alemania e Italia, el porcentaje de energía eléctrica final producida sistemas fotovoltaicos conectados a la red (SFCR) fue, respectivamente, de 3,1% y 4,7% en 2012 y de 3,1% en 2011 en Italia. La potencia instalada, la energía producida y la demanda total en estos países desde el año 2006 al 2012, de acuerdo con REE (2012, 2012, 2013), BMU (2013) y TERNA (2013), se recoge en la Tabla 1.1. Para el caso de Italia se incluyen únicamente datos hasta el año 2011 por no encontrarse disponibles datos para 2012. A medida que el nivel de penetración de la energía solar fotovoltaica en los sistemas eléctricos aumenta la necesidad de que este tipo de energía se integre de manera efectiva en dichos sistemas aumenta. La integración efectiva de un generador en el sistema eléctrico requiere que su producción sea conocida de antemano para poder incluirlo en la planificación del sistema eléctrico con el objetivo de que la producción programada para los distintos generadores iguale a la demanda esperada. Esta planificación del sistema eléctrico se suele hacer a escala diaria. Asimismo, además de equilibrar la generación con la demanda esperada un generador eléctrico debe ser capaz de proporcionar servicios auxiliares al sistema eléctrico como compensación de desequilibrios entre generación y consumo, regulación de tensión o inyección de potencia reactiva, entre otros. Por ejemplo, los sistemas fotovoltaicos cuya potencia sea superior a 2 MWP deben contribuir en España desde el 2010 a garantizar la continuidad del suministro eléctrico frente a huecos de tensión (España, 2010), aplicándose a estos sistemas fotovoltaicos el mismo procedimiento de operación – PO 12.3, REE(2006) – que ya se aplicó en su día a los generadores eólicos (España, 2007). La energía fotovoltaica, junto a otras energías renovables como la eólica, ha sido considerada tradicionalmente una fuente de energía no regulable. En consecuencia, no ha sido tenida en cuenta por los operadores de los sistemas eléctricos como una fuente de energía fiable. Esta consideración de la fotovoltaica como fuente de energía no fiable se debe a su dependencia de las condiciones meteorológicas, radiación y temperatura, para producir energía. Si la producción de un sistema fotovoltaico pudiese conocerse con exactitud y con la suficiente antelación se facilitaría su integración en los sistemas eléctricos. Sin embargo, la mera predicción de cuanta energía producirá un sistema fotovoltaico, aun cuando esta predicción se haga sin error, puede no ser suficiente; la energía producida por el sistema fotovoltaico sigue estando limitada por las condiciones meteorológicas y no es posible regular esta producción de energía. Como ya se ha comentado, la capacidad por parte de un generador eléctrico de regular su potencia de salida, tanto anticipadamente como en tiempo real, es crucial a la hora de su integración en el sistema eléctrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una evolución del método de diferencias finitas ha sido el desarrollo del método de diferencias finitas generalizadas (MDFG) que se puede aplicar a mallas irregulares o nubes de puntos. En este método se emplea una expansión en serie de Taylor junto con una aproximación por mínimos cuadrados móviles (MCM). De ese modo, las fórmulas explícitas de diferencias para nubes irregulares de puntos se pueden obtener fácilmente usando el método de Cholesky. El MDFG-MCM es un método sin malla que emplea únicamente puntos. Una contribución de esta Tesis es la aplicación del MDFG-MCM al caso de la modelización de problemas anisótropos elípticos de conductividad eléctrica incluyendo el caso de tejidos reales cuando la dirección de las fibras no es fija, sino que varía a lo largo del tejido. En esta Tesis también se muestra la extensión del método de diferencias finitas generalizadas a la solución explícita de ecuaciones parabólicas anisótropas. El método explícito incluye la formulación de un límite de estabilidad para el caso de nubes irregulares de nodos que es fácilmente calculable. Además se presenta una nueva solución analítica para una ecuación parabólica anisótropa y el MDFG-MCM explícito se aplica al caso de problemas parabólicos anisótropos de conductividad eléctrica. La evidente dificultad de realizar mediciones directas en electrocardiología ha motivado un gran interés en la simulación numérica de modelos cardiacos. La contribución más importante de esta Tesis es la aplicación de un esquema explícito con el MDFG-MCM al caso de la modelización monodominio de problemas de conductividad eléctrica. En esta Tesis presentamos un algoritmo altamente eficiente, exacto y condicionalmente estable para resolver el modelo monodominio, que describe la actividad eléctrica del corazón. El modelo consiste en una ecuación en derivadas parciales parabólica anisótropa (EDP) que está acoplada con un sistema de ecuaciones diferenciales ordinarias (EDOs) que describen las reacciones electroquímicas en las células cardiacas. El sistema resultante es difícil de resolver numéricamente debido a su complejidad. Proponemos un método basado en una separación de operadores y un método sin malla para resolver la EDP junto a un método de Runge-Kutta para resolver el sistema de EDOs de la membrana y las corrientes iónicas. ABSTRACT An evolution of the method of finite differences has been the development of generalized finite difference (GFD) method that can be applied to irregular grids or clouds of points. In this method a Taylor series expansion is used together with a moving least squares (MLS) approximation. Then, the explicit difference formulae for irregular clouds of points can be easily obtained using a simple Cholesky method. The MLS-GFD is a mesh-free method using only points. A contribution of this Thesis is the application of the MLS-GFDM to the case of modelling elliptic anisotropic electrical conductivity problems including the case of real tissues when the fiber direction is not fixed, but varies throughout the tissue. In this Thesis the extension of the generalized finite difference method to the explicit solution of parabolic anisotropic equations is also given. The explicit method includes a stability limit formulated for the case of irregular clouds of nodes that can be easily calculated. Also a new analytical solution for homogeneous parabolic anisotropic equation has been presented and an explicit MLS- GFDM has been applied to the case of parabolic anisotropic electrical conductivity problems. The obvious difficulty of performing direct measurements in electrocardiology has motivated wide interest in the numerical simulation of cardiac models. The main contribution of this Thesis is the application of an explicit scheme based in the MLS-GFDM to the case of modelling monodomain electrical conductivity problems using operator splitting including the case of anisotropic real tissues. In this Thesis we present a highly efficient, accurate and conditionally stable algorithm to solve a monodomain model, which describes the electrical activity in the heart. The model consists of a parabolic anisotropic partial differential equation (PDE), which is coupled to systems of ordinary differential equations (ODEs) describing electrochemical reactions in the cardiac cells. The resulting system is challenging to solve numerically, because of its complexity. We propose a method based on operator splitting and a meshless method for solving the PDE together with a Runge-Kutta method for solving the system of ODE’s for the membrane and ionic currents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El continuo desarrollo que está teniendo el mundo de las telecomunicaciones móviles hace que la red móvil esté sufriendo progresivos cambios para adaptarse a las nuevas tecnologías móviles que ofrecen un mejor servicio. El cambio en la red móvil no solo se produce por el desarrollo de las nuevas generaciones móviles. La red móvil se adapta también a la demanda de usuarios la cual no deja de incrementar a lo largo de los últimos años. Por tanto, los operadores tienen que ampliar su red instalando nodos que tengan las nuevas tecnologías y también las anteriores. Aparte de crear nuevos nodos también tienen que modificar sus nodos antiguos y convertirlos en nodos que soporten mayor número de usuarios. Hoy en día, en España, se están instalando nuevos nodos con 2G, 3G y 4G y además se están realizando ampliaciones de portadora para 3G. Este proyecto se divide en cuatro partes, la primera de ella se centra en explicar el proceso a seguir para la instalación de un nuevo nodo urbano. Este proceso es muy parecido para instalar un nodo con una tecnología u otra, en el caso del proyecto se explicarán los pasos a seguir para la instalación de un nodo con 2G y 3G. Posteriormente se explicará cómo se realizan las medidas para corroborar el correcto funcionamiento de un nodo rural y se compararán a las medidas de zona urbana mediante capturas de un nodo específico. En la penúltima parte del proyecto se estudia la cobertura en interiores y las diversas soluciones que se toman normalmente para mejorar dicha cobertura en edificios, almacenes y centros comerciales. Por último aparecen las conclusiones del proyecto y los trabajos futuros en donde se realiza una visión de posibles estudios relacionados con este proyecto y una visión de cómo puede quedar formada la red en unos años. ABSTRACT. Due to the continuous development of mobile telecommunications the mobile networks have undergone rapid changes to adapt to new mobile technologies that offer a better service. The mobile network change hasn´t only occurred because of the development of new generations of mobile radio-communications. The mobile network adapts itself to user demand, which has been growing over the last few years faster than expected. Therefore, mobile operators have to enlarge its network by installing nodes that share the old and new technologies. Apart from creating new nodes, the operators have to modify the old ones and turn them into nodes that support an increasing number of users. Nowadays, in Spain new nodes with 2G 3G and 4G are being installed, and carrier extensions for 3G are being made as well. This project is divided into four parts. The first chapter focuses on explaining the process that should be followed to install a new urban node. This process is similar to install a node with any of the technologies available. In the case of this project, the steps to follow in setting up a wireless node with 2G and 3G will be detailed. Afterwards, in the second chapter the document continues explaining the measurements that should be carried out to ensure proper performance of a rural node. Then, those measurements will be compared with the ones of an urban node. In the third part of the project it is explained how coverage indoor studies are performed, and the different solutions that are usually proposed to improve coverage in buildings, stores and shopping centers. The last chapter explains the conclusions that have been reached and future works. It is provided a widespread view of possible studies related to this project and how the mobile will improve in the following years.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo fin de grado, presenta una herramienta para experimentar con técnicas de la Programación Genética Guiada por Gramáticas. La mayor parte de los trabajos realizados hasta el momento en esta área, son demasiado restrictivos, ya que trabajan con gramáticas, y funciones fitness predefinidas dentro de las propias herramientas, por lo que solo son útiles sobre un único problema. Este trabajo se plantea el objetivo de presentar una herramienta mediante la cual todos los parámetros, gramáticas, individuos y funciones fitness, sean parametrizables. Es decir, una herramienta de carácter general, valida para cualquier tipo de problema que sea representable mediante una gramática libre de contexto. Para abordad el objetivo principal propuesto, se plantea un mecanismo para construir el árbol de derivación de los individuos de acuerdo a una gramática libre de contexto, y a partir de ahí, aplicar una serie de operadores genéticos guiados por gramáticas para ofrecer un resultado final, de acuerdo a una función fitness, que el usuario puede seleccionar antes de realizar la ejecución. La herramienta, también propone una medida de similitud entre los individuos pertenecientes a una determinada generación, que permite comparar los individuos desde el punto de vista de la información semántica que contienen. Con el objetivo de validar el trabajo realizado, se ha probado la herramienta con una gramática libre de contexto ya predefinida, y se exponen numerosos tipos de resultados de acuerdo a distintos parámetros de la aplicación, así como su comparación, para poder estudiar la velocidad e convergencia de los mismos. ---ABSTRACT---This final project presents a tool for working with algorithms related to Genetic Grammar Guided Programming. Most of the work done so far in this area is too restrictive, since they only work with predefined grammars, and fitness functions built within the tools themselves, so they are only useful on a single problem. The main objective of this tool is that all parameters, grammars, individuals and fitness functions, are can be easily modified thought the interface. In other words, a general tool valid for any type of problem that can be represented by a context-free grammar. To address the main objective proposed, the tool provides a mechanism to build the derivation tree of individuals according to a context-free grammar, and from there, applying a series of grammar guided genetic operators to deliver a final result, according to a fitness function, which the user can select before execution. The tool also offers a measure of similarity between individuals belonging to a certain generation, allowing comparison of individuals from the point of view of semantic information they contain. In order to validate the work done, the tool has been tested with a context-free grammar previously defined, and numerous types test have been run with different parameters of the application. The results are compared according to their speed convergence

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de estudar a influência da distribuição vertical de semente na variabilidade espacial da implantação de uma cultura de milho em diferentes sistemas de preparação do solo (mobilização convencional, mobilização mínima e sementeira direta), realizaram-se nas campanhas de 2011 e 2012 dois ensaios de campo na região do Alentejo. A avaliação da distribuição vertical de semente fez-se pela determinação da profundidade de sementeira medindo o comprimento do mesocótilo em plântulas de milho. Em sementeira direta foram ainda testadas duas velocidades de trabalho. Os resultados demonstraram que o melhor desempenho de distribuição vertical da semente foi conseguido em sementeira direta com o aumento de velocidade de trabalho de 4 para 6 km h-1 (com um coeficiente de variação, CV, de 10,1%). Uma ANOVA de duplo fator demonstrou que a resistência mecânica do solo e a velocidade de trabalho determinaram diferenças significativas na profundidade de sementeira; a profundidade de sementeira causou diferenças significativas no tempo médio (TME) e percentagem de emergência (PE) da cultura. Os elevados CV observados sugerem a necessidade de uma melhor calibração dos dispositivos de controlo de profundidade dos semeadores por parte dos operadores em campo ou o aperfeiçoamento dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Trabajo fin de grado ha tomado como punto de partida el escenario y los casos de uso que han sido seleccionados para el demostrador ("live demo") del proyecto europeo de I+D+I FI-WARE para, a través del diseño y de la implementación del conjunto de widgets y operadores que forman parte de dicho demostrador, deducir los principios subyacentes al Desarrollo sistemático de los elementos composicionales que conforman un mashup de aplicaciones Web 2.0. En concreto, con el escenario escogido se quiere demostrar, en un contexto de Smart Cities, como puede monitorizarse el estado y la geolocalización de un conjunto de máquinas de vending y de los técnicos y reponedores que les dan soporte. Este trabajo fin de grado se ocupa, en concreto, de crear todos los componentes de interfaz necesarios para poder ofrecer un mashup de aplicación que ofrezca un cuadro de mando personalizable para llevar a cabo la monitorización y el control de máquinas de vending, técnicos y reponedores. Teniendo en cuenta el documento de casos de uso para ese escenario, se hizo una revisión de los diferentes widgets y operadores que había que diseñar y desarrollar. El conjunto inicial de widgets se mantuvo invariable, ya que las vistas que hay que mostrar deben ser las que se especifican en el documento anteriormente citado. No obstante, los operadores necesarios para el mashup han ido cambiando a lo largo del desarrollo como consecuencia de las necesidades de los tipos de datos tratados y de las características propias de la plataforma utilizada. El diseño del mashup se ha dividido en dos tipos de diseños distintos: Diseño de vistas: Es un disño de alto nivel donde se pueden observar las distintas vistas que vería el usuario en cada uno de los widgets (los operadores no tienen vista). Diseño de interacciones: Es un diseño de alto nivel donde se representa esquemáticamente el ujo de datos entre los elementos composicionales del mashup (tanto widgets como operadores). Al mismo tiempo que se planteaba el diseño del mashup, y como consecuencia de la experiencia ganada, se han podido ir realizando trabajos como la creación de la "Guía de desarrollo de widgets y operadores" y la "Guía de estilo para el desarrollo de widgets y operadores".Estos documentos, por su importancia, dan pie al título del presente trabajo ya que suponen una ayuda metodológica al desarrollo sistemático de elementos composicionales para mashup de aplicaciones. Durante ese periódo, simultaneamente, se pudieron encontrar y consultar diferentes fuentes de información que completan el "Estado del arte" y el documento de "Principios de diseño de aplicaciones composicionales orientadas a mashups" y se realizaron varias herramientas que facilitan la tarea del programador de crear un nuevo widget u operador desde cero. Entre estas últimas, destacan: una herramienta para crear y mantener la estructura de directorios y archivos de un widget y de un operador; y una herramienta que empaqueta todos los ficheros del widget u operador en un solo fichero WGT, dejándolo preparado para ser desplegado en la plataforma. La mayor parte del trabajo ha consistido en la implementación de los widgets y operadores. Los widgets implementados son los siguientes: Map Viewer. Issues List. Technicians List. Technicians Info. Los operadores implementados son los siguientes: Poi2Issue Issue2Poi Poi2vCard Vcard2Poi TechnicianSource IssuesSource También se han realizado tres tipos de tests: unitarios, de integracion y de sistema. Además se ha creado documentación de cada elemento composicional para el usuario. En dicha documentación se explica cuales son las funcionalidades de cada uno de los elementos composicionales y cuales son las capacidades de conexión con otros elementos. El resultado de mi trabajo puede observarse en: http://www.youtube.com/watch?v=r8 Vv ehJSw

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El convento de la Tourette se concibe en un marco temporal concreto. Sin embargo sería erróneo limitarse a él a la hora de intentar desentrañar las claves del proyecto y llegar a un entendimiento completo del mismo. Es necesario analizarlo atendiendo al conjunto global de la producción del arquitecto, la cual ha ido forjando una forma propia de hacer que condicionará en gran medida las decisiones tomadas en cada momento. Esta tesis realiza una investigación de doble sentido (recogida en los dos volúmenes que la componen). Por un lado analiza el proceso evolutivo en el que se enhebra la obra intentando desentrañar la influencia de aquel en ésta, pero por otro, invirtiendo el sentido, también desvela ciertas claves de la arquitectura de Le Corbusier a través del preciso análisis de proyecto de la Tourette. Pero aún más, la pertenencia del convento de la Tourette al “tipo monacal” introduce la presencia de un tiempo histórico “ab origine, in hillo tempore” del que la investigación se hace eco. Un tiempo al que Le Corbusier siempre volverá la mirada, y que en este caso se encuentra muy presente, determinando el devenir del proyecto de una forma particular y definitiva. Por tanto este trabajo pretende convocar los dos tiempos que conviven en el proyecto del convento de la Tourette, el corto, concreto y cerrado de su génesis y desarrollo, que se circunscribe al periodo de proyecto comprendido entre los años 1953 y 1956, y el más dilatado, abstracto y abierto, que enlaza el proyecto con la producción de Le Corbusier, y aún más atrás, con el tiempo histórico. En la primera parte del trabajo (A. “PROYECTO”) se realiza un análisis cronológico de la documentación gráfica ‐incluyendo su re‐dibujo‐ y escrita del proyecto, desde los croquis que el arquitecto esboza en su primera visita al valle del Turdine hasta el documento final del project d’exécution, a partir del cual se materializará la obra. El objetivo de la investigación no es describir la realidad construida, sino participar del secreto de su génesis analizando y intentando comprender los dibujos o el pensamiento de sus creadores. Frente a la multitud de escritos sobre la obra del convento de la Tourette el foco de atención de la tesis se centra en el proyecto. Es en esta fase de elaboración y desarrollo de las ideas, previa a la acción de construir, donde pensamos que La deriva de la propia actividad del arquitecto avala esta decisión. A lo largo de su carrera Le Corbusier va reduciendo progresivamente su presencia en la obra centrándose cada vez más en las fases de la concepción y proyecto arquitectónico. Considera que en ellas se produce lo “esencial” mientras que deja las decisiones de obra en manos de sus colaboradores y de los diversos “operadores”, participando tan solo en el visto bueno final de las mismas (esta posición contrasta con la entrega de los constructores para quienes el arquitecto encarna la innovación tecnológica). En la Tourette realiza exclusivamente tres visitas de obra en las que actúa como un mero escenógrafo, ajustando aquí y allá pequeñas decisiones de la construcción. Esta distancia refuerza su posición en el proceso y subraya su búsqueda de un ideal teórico desarrollado sobre todo en la fase de proyecto frente a lo subsidiario de la realidad práctica. En la segunda parte de la tesis, denominada “RE‐VISIONES”, se abre el campo de acción a otras facetas de la ingente actividad de Le Corbusier como la pintura, la escritura o incluso la escultura; una nueva MIRADA bajo el prisma de una serie de conceptos‐llave recurrentes en su Petit vocabulaire (l’homme, la céllule, la bôite, l’organisme). Se amplía, por tanto, el marco temporal, repasando de modo genérico y transversal la evolución de los mismos en la trayectoria del arquitecto, comprobándose como el convento de la Tourette es un eslabón característico y clave en todos ellos. ABSTRACT The Convent of La Tourette is conceived in a specific time frame. However, it would be erroneous to limit oneself simply to this when trying to unravel the keys to the project and to fully understand it. It is necessary to analyse the project attending to the entire production of the architect, who progressively shaped his own way of doing things which would condition to a large extent the decisions taken at each point in time. This thesis carries out its research in a dual sense (brought together in both its volumes). On the one hand, it analyses the development process threading the work attempting to fathom the influence of the former on the latter but, on the other hand, inverting the sense which also reveals certain keys to the architecture of Le Corbusier by means of a detailed analysis of the project for La Tourette. Even more so, the Convent of La Tourette belonging to the “monastic type” introduces the presence of a historical period “ab origine, in hillo tempore" reflected in the research. A period to which Le Corbusier would always look back on and which is extremely present in this case, determining the evolution of the project in a particular and definitive manner. Therefore, this piece of work attempts to bring together both time periods co‐existing in the project for the Convent of La Tourette, the short, specific and closed one regarding its genesis development, encompassing the project period going from 1953 to 1956, and the broader, more abstract and open one linking the project with the production by Le Corbusier, and even further back, with the historical period. The first part of this work (A. “PROJECT") performs a chronological analysis of the graphic – including its re‐drawing –and written documentation of the project, from the outlines the architect sketched in his first visit to the Turdine valley up to the final document of the project d’exécution from which the works would materialise. The main object of the investigation is not intend to describe the reality constructed, but to participate in the secret of its genesis, analysing and trying to understand the drawings or the thoughts of its creators. As opposed to the many writings on the work of the Convent of La Tourette, the attention of this thesis focusses on the project. It is in this preparation and development stage, previous to the construction action, where it is believed the real keys to understand and explain it lie. The enormous work collecting, ordering and analysing the abundant graphic and written information reveals “a multidirectional process, full of regrets and securities, errors and certainties, leaps backwards and tremendous foresight in the process” directed not only by the conditions of the assignment, but also by the way of doing things of Le Corbusier and his collaborator I. Xenakis. A web of hidden relationships is weaved in this open space of the process, often distant in time, allowing us to draw a new route, not only towards the constructed works of the Convent of La Tourette, but towards understanding his entire production. It is in the creation of this new path of knowledge, and not only in its conclusion, where the “thesis” acquires its true meaning. In second place, the drift in the actual activity of the architect backs this decision. Throughout his career, Le Corbusier progressively reduced his presence on site, focussing more and more on the conception and architectural project stages. He considered that which was “essential” took place in these, while leaving the on‐site decisions to his collaborators and the different “operators”, only participating in their final approval (this position is in contrast with the delivery by the constructors for whom the architect embodies the technological innovation). In La Tourette he exclusively made three on‐site visits, in which acted as a pure stage designer, adjusting small construction decisions here and there. This distance reinforces his position in the process and underlines his search for a theoretical ideal developed primarily in the project stage as opposed to that which is secondary of the practical reality. The second part of the thesis, called “RE‐VISIONS”, widens the scope of action to other aspects of the huge activity by Le Corbusier, encompassing painting, writing or even sculpture; a new VIEW under the prism of a series of recurrent key concepts in his Petit vocabulaire (l’homme, la céllule, la bôite, l’organisme). The time frame is therefore extended, revising in a generic and transversal manner the development of these concepts throughout the career of Le Corbusier, confirming how the Convent of La Tourette is a characteristic and key link to each of them.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto de fin de carrera se realiza bajo la supervisión y aprobación de la empresa BT S.A.U. Este documento pretende ser un manual básico para dar a conocer al lector los elementos, herramientas y procedimientos para llevar a cabo un proyecto de tendido de fibra óptica en España. Se compone de 5 temas cuyos contenidos paso a resumir a continuación. Tema 1. En él, se muestra una explicación a las redes de acceso y las distintas topologías FTTx necesarias para llegar al cliente, además de las tecnologías y elementos utilizados para su conexión. Tema 2. Se explicará la regulación española para el tendido de redes de acceso necesarios como son la Regulación OBA, coubicación en las centrales de Telefónica, y la Regulación MARCO, compartición de la infraestructura de Telefónica con otros operadores. Tema 3. Aquí se explica la herramienta NEON, necesaria para la “comunicación” con Telefónica para las peticiones de la compartición de su infraestructura y un apartado para la legislación municipal para el despliegue de redes de fibra. Tema 4. Expondremos el procedimiento de trabajo en campo. Hablaremos de los procedimientos del tendido de cable, las obras civiles, y finalmente las medidas para comprobar el enlace. Tema 5. Explicaremos un ejemplo de despliegue real, desde la viabilidad hasta finalmente el tendido. Tema 6. Por último, expondré mis conclusiones y trabajos futuros. Este proyecto está orientado desde un punto de vista de la infraestructura (Capa Física, Modelo OSI). ABSTRACT. This thesis project is carried out under the supervision and approval of the company BT S.A.U. This document is intended as a basic manual to expose the reader items, tools, and procedures to carry out a deployment of optical fiber project in Spain. It is composed of 5 topics whose contents I summarize below. Topic 1. In it, shows an explanation to access networks and different topologies FTTx necessary to reach the customer, as well as technologies and elements used for connection. Topic 2. In this topic will be explained the Spanish regulation for the access networks needed such as the regulation of OBA, co-location in Telefonica’s central, and the framework regulation, sharing of Telefonica infrastructure with other operators. Topic 3. Here we explain the tool NEON, necessary for the "communication" with Telefónica for requests for infrastructure sharing, and a section for municipal legislation for the deployment of fiber networks. Topic 4. We will exhibit work in field procedure. We will discuss the procedures of laying cable, civil works, and finally measures to check the link. Topic 5. We will present an example of an actual deployment, from viability until finally laying. Topic 6. Finally, I shall explain my conclusions and future work. This project is from a point of view of the infrastructure (physical layer, OSI model).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos tiempos, el tráfico generado por los usuarios de redes móviles ha crecido de manera muy notable, y se prevé que dicho crecimiento se mantenga de manera continuada a lo largo de los próximos años. El tráfico gestionado por redes móviles se ha multiplicado por cinco entre los años 2010 y 2013, y las predicciones señalan un aumento de diez veces entre 2013 y 2019. De este tráfico que deben gestionar las redes móviles, una gran parte se genera en el interior de edificios. En la actualidad, éste oscila entre el 70% y el 80% del tráfico móvil total, y este porcentaje se prevé que aumente hasta cerca del 95% en los próximos años. En esta situación, con el tráfico móvil aumentando de manera exponencial, especialmente en interiores, el despliegue de soluciones específicas para estos entornos se antoja imprescindible para evitar situaciones de saturación constante de las redes móviles. Desde el punto de vista de los operadores móviles, estas soluciones permitirán limitar los problemas de cobertura, mejorar la eficiencia del uso de recursos radio y reducir el coste de las infraestructuras. Asimismo, desde el punto de vista de los usuarios, estos despliegues específicos en interiores permitirán suministrar de manera continua altas tasas de transferencia y satisfacer los altos requisitos de calidad de servicio que demandan los servicios en tiempo real. La complejidad de las actuaciones a realizar para llevar a cabo el despliegue de soluciones específicas en interiores varía considerablemente según el tipo de entorno al que están destinadas. Por un lado, las soluciones en escenarios de tipo residencial se caracterizan por despliegues masivos de transmisores realizados por los propios usuarios. De esta manera, no hay posibilidad de realizar ningún tipo de planificación previa que permita la optimización del rendimiento y solo se puede recurrir, para la mejora de éste, a métodos de autoconfiguración y autooptimización. Por otro lado, las soluciones en entornos empresariales se caracterizan por la necesidad de realizar una labor de diseño y planificación previa, cuya dificultad estará asociada a las dimensiones del escenario de despliegue y al número de transmisores necesarias. De esta labor de diseño y de la configuración de los elementos involucrados en la solución desplegada dependerá el funcionamiento adecuado de la red, el rendimiento conseguido y la calidad del servicio que se podrá suministrar a través de ésta. En esta Tesis Doctoral se abordan dos de los problemas principales en el ámbito del despliegue de soluciones específicas de interiores. El primero de ellos es la dificultad para estimar la capacidad y el rendimiento que puede garantizarse mediante soluciones autodesplegadas, y el segundo es la complejidad de diseñar y configurar despliegues de soluciones específicas de interiores en entornos empresariales que requieran un número de transmisores considerable. En el ámbito de los autodespliegues en escenarios residenciales, las principales contribuciones originales de esta Tesis Doctoral se centran en el diseño, desarrollo e implementación de procedimientos que permitan de manera sencilla y precisa la estimación de la capacidad y el rendimiento en autodespliegues. Por otro lado, en el ámbito de los despliegues en escenarios empresariales, las aportaciones originales de esta Tesis consisten en el desarrollo de nuevas técnicas que permitan el diseño automático de soluciones específicas de interiores en estos entornos. Los resultados obtenidos han permitido la creación de herramientas específicas para el análisis del rendimiento de autodespliegues en escenarios residenciales reales y para el diseño y configuración de despliegues en escenarios empresariales. Estas herramientas permiten sistematizar la aplicación práctica de las contribuciones de la presente Tesis Doctoral. ABSTRACT In recent times, the traffic generated by users of mobile networks has grown very significantly, and this increase is expected to continue steadily over the next few years. Traffic carried by mobile networks has increased fivefold between 2010 and 2013, and forecasts indicate a tenfold increase between 2013 and 2019. Furthermore, a great part of this traffic is generated inside buildings. Currently, between 70% and 80% of mobile traffic occurs inside buildings, and this percentage is expected to increase to about 95% in the coming years. In this situation, with mobile traffic growing exponentially, especially indoors, the deployment of specific solutions for these environments can be essential to avoid a constant saturation of mobile networks. On the one hand, from the point of view of mobile operators, these solutions will help to reduce the problems of coverage, improve the efficiency of radio resource usage and reduce the cost of infrastructures. Also, from the point of view of users, these specific indoor deployments can both guarantee high data transfer rates and meet the high quality of service requirements associated with real-time services. The complexity of the actions required to carry out the deployment of specific solutions indoors varies considerably depending on the type of scenario they are conceived to. On the one hand, residential scenarios are characterized by massive deployments of base stations made by the user, so there is no possibility of any prior planning. In this case only self-configuration, selfoptimization and self-healing methods can be considered for performance optimization. On the other hand, specific in-building solutions in enterprise environments requires a previous design and planning phase, whose difficulty is closely associated with the size of the deployment scenario and the number of base stations required. The design and configuration of the elements included in the solution will determine its performance and the quality of service that can be guaranteed. The objective of the present Thesis is to address two of the main issues related to specific indoor solutions, such as the difficulty of assessing the capacity and the performance which can be guaranteed by means of self-deployments and the complexity of the design and configuration of deployments in enterprise environments requiring a large number of base stations. The main contribution of this thesis consists of the development of techniques and simple tools for design and performance analysis of indoor wireless networks deployments. The main results include the development of procedures for assessing the capacity and performance of self-deployments in residential scenarios, the performance analysis of real residential self-deployments using the proposed procedures and the development of techniques for the automatic design of wireless networks in enterprise environments. The results obtained have allowed the creation of specific software tools for both the performance analysis of self-deployments and the design and deployment of in-building solutions in enterprise scenarios. These software tools are conceived to systematize the practical application of the contributions of this Thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto de fin de carrera esta desarrollado para el explicar el estado actual de las telecomunicaciones en España. Mercado que esta en constante evolución tecnológica y que se ha pasado inicialmente medir por la tasa de penetración de líneas vocales en un país a pasar de hablar de indicadores como la voz IP, descarga de contenidos, uso de los dispositivos ya que el contenido de lo que las redes transporta es donde puede estar el negocio para los operadores.El proyecto de fin de carrera a groso modo está distribuido en dos partes. La primera parte del proyecto, esta enfocado de una manera teórica haciendo una análisis del mercado actual de las telecomunicaciones. Para ello se realiza un primer estudio de los mercados de telecomunicaciones a nivel europeo y en España. Se analiza el sector de las TIC haciendo un repaso por los datos claves obtenidos en el último año y que han sido influenciados por la crisis mundial que vivimos en la actualidad. Detalles de la evolución de los servicios, infraestructuras de nueva generación desplegadas, inversiones y gastos de los operadores así como la cuota de servicio de los mismos. Regulaciones recientes e iniciativas como la Agenda Electrónica Digital para impulsar el crecimiento de la Sociedad de la Información. Investigación sobre la adopción y uso cotidiano de las nuevas tecnologías y dispositivos que hacen los ciudadanos que permiten mejoran nuestras vidas, la productividad de la economía y que será de devenir de las tendencias futuras hacia las que se moverá el mercado. Adicionalmente se plantea cuestiones sobre las tendencias de futuro de las redes de telecomunicaciones, analizando la previsión del volumen de datos creciente a transportar, los mecanismos para aumentar la capacidad, flexibilidad y eficiencia de las redes mediante técnicas como la virtualizacion (SDN).Debido a la experiencia profesional adquirida trabajando en un ISP como es Telefonica de España administrando sus redes y servicios a grandes empresas, profundizare con detalle técnico en estudiar y mostrar como estan montadas sus infraestructuras de red (Red IP Única, NGN, Multiservicio/UNO,…) , los diferentes tipos de accesos a las redes incluyendo los de nueva generación (FTTH) así como el catalogo de servicios ofertados (Macrolan, VPN-IP, Ibercom IP…), principalmente basados RPVs y sus facilidades asociadas sobre las mencionadas redes para las grandes empresas, PYMES y residencial que les permite la comunicación nacional o internacional entre las diferentes emplazamientos de sus oficinas con sus sedes centrales. La segunda parte de este proyecto se describe la implementación de un caso práctico real tanto en tema de configuración y montaje de equipamientos empleados (router,antena 3G…) de una oficina móvil basado en el servicio vpn-ip de Telefonica con acceso móvil 3G que se encuentra en el actual portfolio de sus productos que se explico en teóricamente en la primera parte del proyecto y que tiene conectividad con la red IP Única de la RPV del cliente Caja de Seguros Reunidos (CASER) la cual que nos permitirá conectarnos remotamente a un servidor de monitorización de su intranet ubicada en su sede central de Madrid que muestreara el trafico que se esta cursado por los interfaces del router de la oficina móvil. En la configuración del router se empleara diferentes métodos de conectividad como túneles GRE para la conectividad con los equipos de la red IP Única, LT2P y PPP para el acceso a la red móvil y se dotara de mayor seguridad al trafico cursado por la oficina Mobil empleando túneles IPSEC para la encriptación y cifrado de los datos para evitar que el trafico que va en claro por la red móvil si es interceptado por un tercero no sea capaz de analizarlo y descifrarlo y no se vea afectada la privacidad de la información que estamos transmitiendo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo de investigación pretende identificar las principales características estratégicas del sector de telecomunicaciones, con especial énfasis en la situación actual y posible evolución futura de las empresas. Se tomará como punto de partida el periodo precrisis 2004-2008 y se comparará con la situación actual 2009-2014. Dada la coyuntura actual tras la crisis financiera de los últimos cinco años y las expectativas de salida de la misma, en este estudio se realiza un análisis estratégico del sector de las comunicaciones que servirá de base para analizar futuras expansiones de este sector, una vez su-peradas las limitaciones económicas actuales. También se quiere resaltar las grandes incertidumbres asociadas a la aparición de las nuevas tecnologías móviles de banda ancha que han provocado un fuerte cambio tecnológico en el entorno de los operadores móviles. Este estudio comienza con una breve reseña histórica del sector y concluye con los principales cambios históricos, desafíos, riesgos y objetivos actuales del mismo, realizándose una segmentación de los principales operadores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis doctoral "Contribución al estudio y clasificación de las funciones de implicación borrosas" constituye a la vez una revisión y un conjunto de aportaciones a la modelización de enunciados condicionales, o enunciados del tipo "Si P, entonces Q". Dentro del marco de la lógica borrosa, tradicionalmente, se considera que la mayor parte de las funciones de implicación, que modelizan los enunciados condicionales, deberían generalizar la implicación material booleana. En esta memoria se apoya el argumento de que la implicación material booleana no es siempre el modelo más adecuado para la modelización de los enunciados condicionales, por lo que se definen y estudian clases o grupos de funciones de implicación que se adecúen a las necesidades de cada caso de aplicación. Así pues, tras un capítulo introductorio, en el capítulo 2 se plantean clases de funciones de implicación que sirvan de apoyo en la definición de aplicaciones de carácter borroso más allá de las funciones de implicación borrosas derivadas de la implicación material booleana. Así se llega a la conclusión de que son necesarios, por lo menos, cuatro clases de funciones de implicación de las que se estudian sus propiedades. En el tercer capítulo se aborda el estudio de la verificación tanto de la regla del Modus Ponens como de la regla del Modus Tollens por parte de las funciones de implicación pertenecientes a cada una de las clases planteadas. Por último, en el capítulo 4 se presenta un estudio de los operadores citados como implicaciones borrosas en la literatura bajo el enfoque presentado en esta memoria, ampliándose estudios realizados por otros autores. ---ABSTRACT--- The Ph.D. Thesis "Contribution al estudio y clasificacion de las funciones de implication borrosas" is a revision and a set of contributions to the conditional statements or statements of the type "If P then Q" modelization. It has been usually considered in Fuzzy Logic, that implication functions that model conditional statements should generalize the boolean material implication. The present memory supports the argument that boolean material implication is not always the most appropiated model for conditional statements, so implication function groups or clusters are denned in order to fit in each application. Therefore, after an introductory chapter, in chapter 2 groups or clusters of implication functions are given in order to bear out fuzzy applications definitions further on from implication functions coming from boolean material implication. Then, it has been reached the conclusion that, at least, four types of implication functions are needed so their properties are studied.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las centrales nucleares necesitan de personal altamente especializado y formado. Es por ello por lo que el sector de la formación especializada en centrales nucleares necesita incorporar los últimos avances en métodos formativos. Existe una gran cantidad de cursos de formación presenciales y es necesario transformar dichos cursos para utilizarlos con las nuevas tecnologías de la información. Para ello se necesitan equipos multidisciplinares, en los que se incluyen ingenieros, que deben identificar los objetivos formativos, competencias, contenidos y el control de calidad del propio curso. En este proyecto se utilizan técnicas de ingeniería del conocimiento como eje metodológico para transformar un curso de formación presencial en formación on-line a través de tecnologías de la información. En la actualidad, las nuevas tecnologías de la información y comunicación están en constante evolución. De esta forma se han sumergido en el mundo transformando la visión que teníamos de éste para dar lugar a nuevas oportunidades. Es por ello que este proyecto busca la unión entre el e-learning y el mundo empresarial. El objetivo es el diseño, en plataforma e-learning, de un curso técnico que instruya a operadores de sala de control de una central nuclear. El trabajo realizado en este proyecto ha sido, además de transformar un curso presencial en on-line, en obtener una metodología para que otros cursos se puedan transformar. Para conseguir este cometido, debemos preocuparnos tanto por el contenido de los cursos como por su gestión. Por este motivo, el proyecto comienza con definiciones básicas de terminología propia de e-learning. Continúa con la generación de una metodología que aplique la gestión de conocimiento para transformar cualquier curso presencial a esta plataforma. Definida la metodología, se aplicará para el diseño del curso específico de Coeficientes Inherentes de Reactividad. Finaliza con un estudio económico que dé viabilidad al proyecto y con la creación de un modelo económico que estime el precio para cualquier curso futuro. Abstract Nuclear power plants need highly specialized and trained personnel. Thus, nuclear power plant Specialized Training Sector requires the incorporation of the latest advances in training methods. A large array of face-to-face training courses exist and it has become necessary to transform said courses in order to apply them with the new information systems available. For this, multidisciplinary equipment is needed where the engineering workforce must identify educational objectives, competences and abilities, contents and quality control of the different courses. In this project, knowledge engineering techniques are employed as the methodological axis in order to transform a face-to-face training course into on-line training through the use of new information technologies. Nowadays, new information and communication technologies are in constant evolution. They have introduced themselves into our world, transforming our previous vision of them, leading to new opportunities. For this reason, the present Project seeks to unite the use of e-learning and the Business and Corporate world. The main objective is the design, in an e-learning platform, of a technical course that will train nuclear power plant control-room operators. The work carried out in this Project has been, in addition to the transformation of a face-to-face course into an online one, the obtainment of a methodology to employ in the future transformation of other courses. In order to achieve this mission, our interest must focus on the content as well as on the management of the various courses. Hence, the Project starts with basic definitions of e-learning terminology. Next, a methodology that applies knowledge management for the transformation of any face-to-face course into e-learning has been generated. Once this methodology is defined, it has been applied for the design process of the Inherent Coefficients of Reactivity course. Finally, an economic study has been developed in order to determine the viability of the Project and an economic model has been created to estimate the price of any given course