96 resultados para Cigarrillos electrónicos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los dados por magulladura son una de las principales causas de pérdida de calidad en frutos de pepita. En la actualidad existen dispositivos ("frutos electrónicos") que se introducen en cualquier operación de manejo como un fruto más y proporcionan información sobre los impactos que la fruta recibe en el proceso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se emplearon dos frutos electrónicos simulados IS-100 de diferente tamaño(grande: 300.6 gr y 8.8 cm de diámetro; pequeña: 114.7 gr y 6.2 cm de diámetro) para evaluar la calidad de las operaciones de post-recolección. Cotí la ayuda de los frutos electrónicos IS-100 es posible detectar en qué lugar y con qué intensidad se produce un impacto, asi como el tipo de material contra el que estos frutos están impactando. Se estudiaron cuatro líneas de manipulación en varias cooperativas (dos de fruta de hueso y dos de cítricos). En la mayoría de puntos de transferencia se registran impactos con intensidades superiores a 50 g's. Los impactos registrados en las líneas de manipulación de cítricos son mayores que los correspondientes a las líneas de fruta de hueso. Para estudiar el efecto de las líneas sobre diferentes variedades de las especies manipuladas en ellas, se diseñó un ensayo de interacción fruta-línea de manipulación, a través del cual se comparan lotes de fruta manipulados y sin manipular, cuantificándose los daños atribuibles a la recolección y a la manipulación. En todos los casos estudiados, más del 50% de los frutos ya manipulados presentan algún tipo de daño. La observación de estos daños al cabo de 2 días, en el caso de La fruto de hueso, y 10 días, en el caso de los cítricos, revela que estos daños evolucionan, siendo mayores y más patentes en la segunda fecha de observación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto tiene como objetivo el estudio de siete Sistemas Dinámicos, yendo de los que son paradigma de Caos a los más complejos, y sus posibles aplicaciones en comunicaciones privadas, bioingeniería y comunicaciones ópticas. El conjunto de sistemas seleccionados incluye algunos ejemplos paradigmáticos de Dinámicas Caóticas, así como nuevas propuestas, tanto de do sistemas básicos como de un sistema que tiene soluciones más complejas, nunca antes estudiados. Se logrará, de esta manera, realizar un completo recorrido desde los osciladores no-lineales más simples (como el de Van Der Pol), hasta los sistemas de mayor complejidad (como son las dinámicas hipercaóticas). El estudio consiste, en primer lugar, en identificar los métodos de análisis específicos del Caos, que permiten poner de manifiesto su carácter y propiedades (a lo que se dedicará el capítulo 1). Tras ello (Capítulo 2 y 3), se desarrollan, estudian y analizan los sistemas mediante simulaciones numéricas de la dinámica de los citados sistemas utilizando el software matemático MATLAB. En una segunda parte (que abarca la primera mitad del Capítulo 4), se implementan los circuitos electrónicos de los citados sistemas, y se simula su comportamiento mediante un software profesional. En una tercera parte (coincidente con la segunda mitad del Capítulo 4 y el Capítulo 5 completo), se construyen físicamente los sistemas fundamentales y sus extensiones, con el objetivo de caracterizar su comportamiento. Además, se desarrolla una aplicación software con entorno gráfico para el análisis sistemático de las dinámicas objeto de estudio. Finalmente, y con el objetivo de aplicar los Sistemas Dinámicos caóticos tanto a Comunicaciones Seguras como a Bioingeniería, este proyecto presenta un estudio de los citados sistemas para su uso en Comunicaciones Seguras, en el capítulo 6. Por otro lado, el oscilador de Van Der Pol no sólo es un sistema paradigma de Caos por la riqueza de su dinámica caótica, sino también por su interés en la simulación del corazón humano tanto en régimen regular, como en régimen caótico. Este análisis se desarrolla en el Capítulo 3.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta comunicación tiene como objetivo analizar la «publicidad activa» de los registros electrónicos de planteamiento urbanístico de las diecisiete comunidades autónomas españolas y del Estado (Sistema de Información Urbana - SIU). Se plantea un análisis exploratorio, con un enfoque cuantitativo, para la elaboración de un diagnóstico del grado de desarrollo de los tres principios del Gobierno abierto (transparencia, participación y colaboración) en estos sitios web. Los resultados muestran un grado de desarrollo desigual entre la información disponible en los diferentes registros. En general, las comunidades autónomas disponen de portales específicos dedicados sólo a información a posteriori (de los documentos vigentes una vez que han sido aprobados y publicados en los boletines oficiales), aunque con bases de datos muy completas de documentos digitalizados y con consultas a demanda elaboradas. No obstante, los niveles de transparencia estipulados para la documentación en elaboración o tramitación, desde su fase inicial, así como las herramientas de colaboración y participación son excepcionales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La comunicación tiene como objetivo analizar la «publicidad activa» de los registros electrónicos de planteamiento urbanístico de las diecisiete comunidades autónomas españolas y del Estado (Sistema de Información Urbana - SIU). Se plantea un análisis exploratorio, con un enfoque cuantitativo, para la elaboración de un diagnóstico del grado de desarrollo de los tres principios del Gobierno abierto (transparencia, participación y colaboración) en estos sitios web. Los resultados muestran un grado de desarrollo desigual entre la información disponible en los diferentes registros. En general, las comunidades autónomas disponen de portales específicos dedicados sólo a información a posteriori (de los documentos vigentes una vez que han sido aprobados y publicados en los boletines oficiales), aunque con bases de datos muy completas de documentos digitalizados y con consultas a demanda elaboradas. No obstante, los niveles de transparencia estipulados para la documentación en elaboración o tramitación, desde su fase inicial, así como las herramientas de colaboración y participación son excepcionales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto se encuadra dentro de los estudios de impacto que están produciendo en las empresas el desarrollo e incorporación de las nuevas tecnologías, y más concretamente la implantación de las aplicaciones provenientes de la denominada web 2.0. Se conoce con este nombre a las herramientas web que permiten una comunicación bidireccional, es decir, el usuario y la empresa pueden intercambiar opiniones, de manera que el usuario adquiere un nuevo papel más protagonista, presentando ideas, aclaraciones, gustos, críticas...que son tenidas en cuenta por la empresa para realizar su actividad. De esta manera se ha roto con el modelo anterior donde el usuario solo podía consultar la información de una página web, era simple receptor de la información. El objetivo de este estudio es conocer cómo las empresas están incorporando estas tecnologías 2.0 a su estrategia empresarial, y cómo términos como innovación abierta o co-creación están tomando mayor importancia en el entorno empresarial gracias a estas nuevas tecnologías. Si bien existen estudios a nivel de consultoría que generalmente aportan información sobre cuáles son las plataformas 2.0 más utilizadas en el mundo empresarial, no se han encontrado hasta ahora estudios que vinculen estas plataformas entre ellas y con la estructura empresarial, para poder definir un perfil de la organización que trabaja con ellas o el nivel de madurez de la incorporación de estas tecnologías en las organizaciones. Analizar cualitativamente estos aspectos, significa estudiar los nuevos conceptos incorporados a las tecnologías 2.0 en la empresa. Un análisis cuantitativo nos llevaría a estudiar de manera práctica que tipo de recursos y en qué cantidad se están utilizando y su vinculación con la estructura de la organización. Para ello: En una primera parte, nos centraremos en las diferentes formas en las que se puede acceder a Internet, y a continuación enfocaremos el estudio en los dispositivos móviles que nos permiten la conexión desde cualquier lugar y en cualquier instante. Con esto conseguiremos tener una situación actual del mercado de las TIC y veremos cómo las empresas han ido construyendo nuevas políticas para cambiar su estrategia con el fin de estar presentes en los nuevos dispositivos móviles y no perder cuota de mercado. Tras ello, veremos porqué conceptos como el de innovación abierta y proceso de co-creación han sido posibles gracias a la implantación de las tecnologías 2.0 en el ámbito empresarial, facilitando que la empresa y el usuario final cooperen y vayan de la mano en una misma dirección; la empresa se surte de las aportaciones que los usuarios ofrecen, y por otra parte el usuario se siente valorado por la empresa para conseguir la meta final. Es aquí donde comprobaremos la transformación que ha sufrido la empresa en sus distintos sectores departamentales (marketing, ventas, recursos humanos y atención al cliente) como consecuencia de la incorporación de las herramientas 2.0 al mundo laboral. Por todo ello, se enumerarán los distintos usos que realizan las empresas de las redes social más habituales, y además se describirán las principales herramientas y/o aplicaciones para monitorizar las redes sociales que servirán a la empresa para hacer un seguimiento de las mismas. La segunda parte del proyecto será un caso práctico y servirá para ofrecer una visión más real del estado actual de las empresas y su relación con las redes sociales. Para la recopilación de los datos se han escogido las empresas que pertenecen al sector de la “Fabricación de productos informáticos, electrónicos y ópticos”. En cuento a las redes sociales elegidas, han sido Facebook y Twitter. Este estudio práctico nos hará entender mejor el impacto directo que tienen las redes sociales en la actividad diaria de las empresas. Finalmente se realizarán una serie de consideraciones a modo de directrices que servirán para tratar de entender cómo se están utilizando las redes sociales en el entorno empresarial y cuál puede ser la manera más óptima de utilizarlas según el estudio presentado. ABSTRACT. This project is part of the impact studies arisen in companies by the development and incorporation of new technologies and, specifically, by the implementation of applications from the so-called web 2.0. That is how we call the web tools that allow bidirectional communication, this is, user and company can exchange opinions, in such a way that users acquire a leading role, submitting ideas, explanations, preferences, criticism... considered by the company when performing its activities. This way, we have broken with the previous model, where users could only check information from a web page and were simple information recipients. The objective of this study is to get to know how companies are incorporating these technologies 2.0 to their business strategy and how terms such as open innovation or co-creation are becoming more important in the business sphere thanks to these new technologies. Even if there are consulting studies that generally provide information about which are the platforms 2.0 more used in the business world, no studies have been found until now that link such platforms among them and with the business structure, in order to define a profile of the organization that works with them or the level of development of the incorporation of these technologies in the organizations. A qualitative analysis of these aspects involves studying the new concepts incorporated to technologies 2.0 by companies. A qualitative analysis would lead us to study in a practical manner what kind of resources and what amount are being used and their relation with the organization structure. Therefore: First, we will focus on the different ways to gain access to the Internet and, afterwards, we will focus the study on mobile devices that allow us to be connected everywhere any time. This way, we will manage to obtain a present situation of the ICT market and we will see how companies have constructed new policies to change their strategy in order to be present in the new mobile devices without losing their market share. Later, we will review why concepts such as open innovation and co-creation process have been possible thanks to the implementation of technologies 2.0 in the business environment, facilitating that companies and final users cooperate and walk hand in hand in the same direction; companies stock up on the contributions offered by users and, on the other hand, users feel appreciated by companies in the achievement of the final goal. Here we will confirm the transformation suffering by companies in different department sectors (marketing, sales, human resources and customer service) as a result of the incorporation of tools 2.0 to the work environment. Therefore, we will enumerate the different uses that companies make of the most common social networks, describing the main tools and/or applications to monitor social networks used by companies to follow them up. The second part of the project will be a case study to offer a more real vision of the present status of companies and their relation with social networks. To collect the data, we have selected companies from the “Manufacture of computer, electronic and optical products” industry. The social networks chosen are Facebook and Twitter. This case study will help us to get a better understanding of the direct impact of social networks in companies’ daily activity. Finally, we will offer a series of considerations and guidelines to try to understand how are social networks being used in the business environment and what can be the most suitable manner to use them according to this study.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este artículo el autor expone las ventajas y objetivos de la enseñanza a base del Ordenador, recogiendo las primeras aplicaciones que se han efectuado en España.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Distributed real-time embedded systems are becoming increasingly important to society. More demands will be made on them and greater reliance will be placed on the delivery of their services. A relevant subset of them is high-integrity or hard real-time systems, where failure can cause loss of life, environmental harm, or significant financial loss. Additionally, the evolution of communication networks and paradigms as well as the necessity of demanding processing power and fault tolerance, motivated the interconnection between electronic devices; many of the communications have the possibility of transferring data at a high speed. The concept of distributed systems emerged as systems where different parts are executed on several nodes that interact with each other via a communication network. Java’s popularity, facilities and platform independence have made it an interesting language for the real-time and embedded community. This was the motivation for the development of RTSJ (Real-Time Specification for Java), which is a language extension intended to allow the development of real-time systems. The use of Java in the development of high-integrity systems requires strict development and testing techniques. However, RTJS includes a number of language features that are forbidden in such systems. In the context of the HIJA project, the HRTJ (Hard Real-Time Java) profile was developed to define a robust subset of the language that is amenable to static analysis for high-integrity system certification. Currently, a specification under the Java community process (JSR- 302) is being developed. Its purpose is to define those capabilities needed to create safety critical applications with Java technology called Safety Critical Java (SCJ). However, neither RTSJ nor its profiles provide facilities to develop distributed realtime applications. This is an important issue, as most of the current and future systems will be distributed. The Distributed RTSJ (DRTSJ) Expert Group was created under the Java community process (JSR-50) in order to define appropriate abstractions to overcome this problem. Currently there is no formal specification. The aim of this thesis is to develop a communication middleware that is suitable for the development of distributed hard real-time systems in Java, based on the integration between the RMI (Remote Method Invocation) model and the HRTJ profile. It has been designed and implemented keeping in mind the main requirements such as the predictability and reliability in the timing behavior and the resource usage. iThe design starts with the definition of a computational model which identifies among other things: the communication model, most appropriate underlying network protocols, the analysis model, and a subset of Java for hard real-time systems. In the design, the remote references are the basic means for building distributed applications which are associated with all non-functional parameters and resources needed to implement synchronous or asynchronous remote invocations with real-time attributes. The proposed middleware separates the resource allocation from the execution itself by defining two phases and a specific threading mechanism that guarantees a suitable timing behavior. It also includes mechanisms to monitor the functional and the timing behavior. It provides independence from network protocol defining a network interface and modules. The JRMP protocol was modified to include two phases, non-functional parameters, and message size optimizations. Although serialization is one of the fundamental operations to ensure proper data transmission, current implementations are not suitable for hard real-time systems and there are no alternatives. This thesis proposes a predictable serialization that introduces a new compiler to generate optimized code according to the computational model. The proposed solution has the advantage of allowing us to schedule the communications and to adjust the memory usage at compilation time. In order to validate the design and the implementation a demanding validation process was carried out with emphasis in the functional behavior, the memory usage, the processor usage (the end-to-end response time and the response time in each functional block) and the network usage (real consumption according to the calculated consumption). The results obtained in an industrial application developed by Thales Avionics (a Flight Management System) and in exhaustive tests show that the design and the prototype are reliable for industrial applications with strict timing requirements. Los sistemas empotrados y distribuidos de tiempo real son cada vez más importantes para la sociedad. Su demanda aumenta y cada vez más dependemos de los servicios que proporcionan. Los sistemas de alta integridad constituyen un subconjunto de gran importancia. Se caracterizan por que un fallo en su funcionamiento puede causar pérdida de vidas humanas, daños en el medio ambiente o cuantiosas pérdidas económicas. La necesidad de satisfacer requisitos temporales estrictos, hace más complejo su desarrollo. Mientras que los sistemas empotrados se sigan expandiendo en nuestra sociedad, es necesario garantizar un coste de desarrollo ajustado mediante el uso técnicas adecuadas en su diseño, mantenimiento y certificación. En concreto, se requiere una tecnología flexible e independiente del hardware. La evolución de las redes y paradigmas de comunicación, así como la necesidad de mayor potencia de cómputo y de tolerancia a fallos, ha motivado la interconexión de dispositivos electrónicos. Los mecanismos de comunicación permiten la transferencia de datos con alta velocidad de transmisión. En este contexto, el concepto de sistema distribuido ha emergido como sistemas donde sus componentes se ejecutan en varios nodos en paralelo y que interactúan entre ellos mediante redes de comunicaciones. Un concepto interesante son los sistemas de tiempo real neutrales respecto a la plataforma de ejecución. Se caracterizan por la falta de conocimiento de esta plataforma durante su diseño. Esta propiedad es relevante, por que conviene que se ejecuten en la mayor variedad de arquitecturas, tienen una vida media mayor de diez anos y el lugar ˜ donde se ejecutan puede variar. El lenguaje de programación Java es una buena base para el desarrollo de este tipo de sistemas. Por este motivo se ha creado RTSJ (Real-Time Specification for Java), que es una extensión del lenguaje para permitir el desarrollo de sistemas de tiempo real. Sin embargo, RTSJ no proporciona facilidades para el desarrollo de aplicaciones distribuidas de tiempo real. Es una limitación importante dado que la mayoría de los actuales y futuros sistemas serán distribuidos. El grupo DRTSJ (DistributedRTSJ) fue creado bajo el proceso de la comunidad de Java (JSR-50) con el fin de definir las abstracciones que aborden dicha limitación, pero en la actualidad aun no existe una especificacion formal. El objetivo de esta tesis es desarrollar un middleware de comunicaciones para el desarrollo de sistemas distribuidos de tiempo real en Java, basado en la integración entre el modelo de RMI (Remote Method Invocation) y el perfil HRTJ. Ha sido diseñado e implementado teniendo en cuenta los requisitos principales, como la predecibilidad y la confiabilidad del comportamiento temporal y el uso de recursos. El diseño parte de la definición de un modelo computacional el cual identifica entre otras cosas: el modelo de comunicaciones, los protocolos de red subyacentes más adecuados, el modelo de análisis, y un subconjunto de Java para sistemas de tiempo real crítico. En el diseño, las referencias remotas son el medio básico para construcción de aplicaciones distribuidas las cuales son asociadas a todos los parámetros no funcionales y los recursos necesarios para la ejecución de invocaciones remotas síncronas o asíncronas con atributos de tiempo real. El middleware propuesto separa la asignación de recursos de la propia ejecución definiendo dos fases y un mecanismo de hebras especifico que garantiza un comportamiento temporal adecuado. Además se ha incluido mecanismos para supervisar el comportamiento funcional y temporal. Se ha buscado independencia del protocolo de red definiendo una interfaz de red y módulos específicos. También se ha modificado el protocolo JRMP para incluir diferentes fases, parámetros no funcionales y optimizaciones de los tamaños de los mensajes. Aunque la serialización es una de las operaciones fundamentales para asegurar la adecuada transmisión de datos, las actuales implementaciones no son adecuadas para sistemas críticos y no hay alternativas. Este trabajo propone una serialización predecible que ha implicado el desarrollo de un nuevo compilador para la generación de código optimizado acorde al modelo computacional. La solución propuesta tiene la ventaja que en tiempo de compilación nos permite planificar las comunicaciones y ajustar el uso de memoria. Con el objetivo de validar el diseño e implementación se ha llevado a cabo un exigente proceso de validación con énfasis en: el comportamiento funcional, el uso de memoria, el uso del procesador (tiempo de respuesta de extremo a extremo y en cada uno de los bloques funcionales) y el uso de la red (consumo real conforme al estimado). Los buenos resultados obtenidos en una aplicación industrial desarrollada por Thales Avionics (un sistema de gestión de vuelo) y en las pruebas exhaustivas han demostrado que el diseño y el prototipo son fiables para aplicaciones industriales con estrictos requisitos temporales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cuantificación del crecimiento de las especies forestales es fundamental para desarrollar una selvicultura basada en criterios técnicos y científicos. El análisis de cómo influyen los factores edafoclimáticos en dicho crecimiento posibilita el paso de modelos de crecimiento estrictamente empíricos a modelos con un mayor componente ecofisiológico, permitiendo un estudio en mayor detalle de las relaciones suelo-clima-planta. Este conocimiento facilita una posterior incorporación a estos modelos de variables estacionales tomados de sensores remotos y estaciones meteorológicas. En este trabajo se analiza la influencia de variables edafoclimáticas en el crecimiento diametral de encina en 4 parcelas situadas en estaciones forestales contrastadas: Villanueva de los Castillejos (Huelva), Olivenza (Badajoz), El Dehesón (Toledo) y Aldehuela de la Bóveda (Salamanca). La toma de datos de crecimiento se ha realizado en el periodo 2006-2010 a dos niveles: (a) de forma continua (intervalo de 15 min) en 4-9 individuos de la parcela mediante dendrómetros electrónicos (DEPFOR, Universidad de Huelva) con resolución de 4 micras y (b) con periodicidad mensual, mediante dendrómetros de banda en 60-100 individuos por parcela. Las parcelas disponen de estaciones meteorológicas ?in situ?.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las organizaciones viven cambios estratégicos, culturales y organizativos para adaptarse a la sociedad red. La incorporación de las Tecnologías de Información y Comunicación facilita los esquemas de trabajo en red dentro de las organizaciones y entre ellas. En este contexto, hay profesionales desbordados en su puesto de trabajo, por exceso de información, correos electrónicos, llamadas, reuniones, plataformas virtuales. Estos cambios suponen un reto para la organización del trabajo y mejora de productividad. En este artículo se propone un marco de análisis para esta organización del trabajo en puestos caracterizados por el predominio del conocimiento. Finalmente se contrasta con un estudio de caso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La confianza es un factor clave para el establecimiento de relaciones personales y de negocios, según se ha concluido en números estudios. Se trata de un concepto multidimensional, difícil de definir y medir y que está influido por diversos factores, propios tanto de la “parte confiadora” como de la “parte confiada”. Sin un nivel mínimo de confianza, es difícil que se establezcan relaciones entre partes no conocidas. El comercio electrónico tiene una serie de características que hacen que la confianza sea más importante si cabe que en los negocios tradicionales. El presente proyecto analiza un modelo multidimensional de generación y mantenimiento de confianza para los negocios electrónicos, con el objetivo de estudiar los factores que influyen en la confianza y en sus cuatro dimensiones. Los resultados de la encuesta realizada a 134 personas, indican que la seguridad percibida es el factor más influyente en la confianza, mientras que la integridad y, en menor medida, la previsibilidad, son las dimensiones más importantes de la misma. Nuestro estudio también confirma la influencia de factores como el boca a boca, el tamaño y la marca sobre la reputación, la influencia de la familiaridad y la usabilidad sobre la facilidad de uso percibida y de ésta sobre la utilidad percibida, así como la importancia de la personalización del sitio web y la integración multicanal como antecedentes de la presencia social. Sorprendentemente, factores tradicionalmente importantes como la disposición a la confianza o la privacidad, no muestran tener influencia sobre la confianza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El conjunto de actividades ligadas al transporte aéreo se ha convertido, a nivel global, en una importante fuente de recursos económicos, generación de empleo e incremento de la calidad de vida de los ciudadanos. Sin embargo, la situación crónica de saturación del espacio aéreo y de los propios aeropuertos limita enormemente el potencial crecimiento económico mundial basado en este sector estratégico del transporte. Como efecto colateral de esta saturación, se producen graves daños medioambientales debidos fundamentalmente, a la emisión directa a la atmósfera de mucha mayor cantidad de gases de efecto invernadero de la estrictamente necesaria. La solución al problema no es abordable exclusivamente a través de la construcción de nuevas infraestructuras aeroportuarias o la ampliación de las ya existentes. Los organismos mundiales relacionados con la aviación civil han diagnosticado que la forma anacrónica en la que actualmente se está gestionando la información aeronáutica (IA) impide que los proveedores de servicios de navegación aérea puedan tratar de forma eficiente y segura un mayor volumen de tránsito aéreo en el mismo espacio y lapso de tiempo. En definitiva, se advierte que la actual falta de eficiencia de la gestión de IA constriñe de forma notable el verdadero potencial del sistema aéreo mundial. Para solucionar este problema, se encuentra en marcha un ambicioso programa de trabajo que pretende mejorar la situación actual, dando respuesta a la necesidad de una interoperabilidad mundial desde un punto de vista análogo al que promueven las IDE en otros campos temáticos. Denominado genéricamente transición de AIS (Servicios de Información Aeronáutica) a AIM (Gestión de la Información Aeronáutica), este proceso está liderado por la Organización de Aviación Civil Internacional (OACI), encargada de su tutela y coordinación con los estados para evitar en lo posible evoluciones divergentes. Basada en la futura puesta en marcha de un modelo mundial de intercambio de datos aeronáuticos normalizados, el avance de esta iniciativa está obligando a los servicios AIS a replantearse la forma en la que, hasta el momento, publican y difunden el contenido de las denominadas Publicaciones de Información Aeronáutica (AIP). Todavía hoy (mediados de 2011), las AIS publican su cartografía en formato papel y estos mapas son de uso obligatorio en todos los vuelos de transporte de pasajeros que realicen las compañías aéreas. Aunque nada impide que los pilotos puedan llevar otra información adicional en instrumentos electrónicos propios (ordenadores portátiles, teléfonos, tabletas tipo iPad, y otros), el uso de los mapas en papel sigue siendo obligatorio. Esto arrastra algunas consecuencias relacionadas con su manejo (la cabina del piloto es muy pequeña), con la lectura de los mapas (hay cada vez más información en los mapas), con su actualización (hay que versionar constantemente los mapas para incorporar novedades con el gasto de impresión y distribución que supone) y con otros aspectos que pueden ser fácilmente mejorables por medio de las tecnologías emergentes, como por ejemplo el acceso ubicuo a la información espacial más actual. Entre los cambios que impulsará la iniciativa del cambio de AIS a AIM, está el que los mapas usados por los pilotos y otros técnicos de IA, dejarán de concebirse como productos terminales y cerrados para evolucionar hacia el conocido formato de datos distribuidos e interoperables que auspician las IDE, logrando con ello integrar la información, contenida en la definición de diferentes flujos de trabajo dentro del campo aeronáutico, de forma directa, transparente y eficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The extraordinary increase of new information technologies, the development of Internet, the electronic commerce, the e-government, mobile telephony and future cloud computing and storage, have provided great benefits in all areas of society. Besides these, there are new challenges for the protection of information, such as the loss of confidentiality and integrity of electronic documents. Cryptography plays a key role by providing the necessary tools to ensure the safety of these new media. It is imperative to intensify the research in this area, to meet the growing demand for new secure cryptographic techniques. The theory of chaotic nonlinear dynamical systems and the theory of cryptography give rise to the chaotic cryptography, which is the field of study of this thesis. The link between cryptography and chaotic systems is still subject of intense study. The combination of apparently stochastic behavior, the properties of sensitivity to initial conditions and parameters, ergodicity, mixing, and the fact that periodic points are dense, suggests that chaotic orbits resemble random sequences. This fact, and the ability to synchronize multiple chaotic systems, initially described by Pecora and Carroll, has generated an avalanche of research papers that relate cryptography and chaos. The chaotic cryptography addresses two fundamental design paradigms. In the first paradigm, chaotic cryptosystems are designed using continuous time, mainly based on chaotic synchronization techniques; they are implemented with analog circuits or by computer simulation. In the second paradigm, chaotic cryptosystems are constructed using discrete time and generally do not depend on chaos synchronization techniques. The contributions in this thesis involve three aspects about chaotic cryptography. The first one is a theoretical analysis of the geometric properties of some of the most employed chaotic attractors for the design of chaotic cryptosystems. The second one is the cryptanalysis of continuos chaotic cryptosystems and finally concludes with three new designs of cryptographically secure chaotic pseudorandom generators. The main accomplishments contained in this thesis are: v Development of a method for determining the parameters of some double scroll chaotic systems, including Lorenz system and Chua’s circuit. First, some geometrical characteristics of chaotic system have been used to reduce the search space of parameters. Next, a scheme based on the synchronization of chaotic systems was built. The geometric properties have been employed as matching criterion, to determine the values of the parameters with the desired accuracy. The method is not affected by a moderate amount of noise in the waveform. The proposed method has been applied to find security flaws in the continuous chaotic encryption systems. Based on previous results, the chaotic ciphers proposed by Wang and Bu and those proposed by Xu and Li are cryptanalyzed. We propose some solutions to improve the cryptosystems, although very limited because these systems are not suitable for use in cryptography. Development of a method for determining the parameters of the Lorenz system, when it is used in the design of two-channel cryptosystem. The method uses the geometric properties of the Lorenz system. The search space of parameters has been reduced. Next, the parameters have been accurately determined from the ciphertext. The method has been applied to cryptanalysis of an encryption scheme proposed by Jiang. In 2005, Gunay et al. proposed a chaotic encryption system based on a cellular neural network implementation of Chua’s circuit. This scheme has been cryptanalyzed. Some gaps in security design have been identified. Based on the theoretical results of digital chaotic systems and cryptanalysis of several chaotic ciphers recently proposed, a family of pseudorandom generators has been designed using finite precision. The design is based on the coupling of several piecewise linear chaotic maps. Based on the above results a new family of chaotic pseudorandom generators named Trident has been designed. These generators have been specially designed to meet the needs of real-time encryption of mobile technology. According to the above results, this thesis proposes another family of pseudorandom generators called Trifork. These generators are based on a combination of perturbed Lagged Fibonacci generators. This family of generators is cryptographically secure and suitable for use in real-time encryption. Detailed analysis shows that the proposed pseudorandom generator can provide fast encryption speed and a high level of security, at the same time. El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de Internet, el comercio electrónico, la administración electrónica, la telefonía móvil y la futura computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección de la información, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos electrónicos. La criptografía juega un papel fundamental aportando las herramientas necesarias para garantizar la seguridad de estos nuevos medios, pero es imperativo intensificar la investigación en este ámbito para dar respuesta a la demanda creciente de nuevas técnicas criptográficas seguras. La teoría de los sistemas dinámicos no lineales junto a la criptografía dan lugar a la ((criptografía caótica)), que es el campo de estudio de esta tesis. El vínculo entre la criptografía y los sistemas caóticos continúa siendo objeto de un intenso estudio. La combinación del comportamiento aparentemente estocástico, las propiedades de sensibilidad a las condiciones iniciales y a los parámetros, la ergodicidad, la mezcla, y que los puntos periódicos sean densos asemejan las órbitas caóticas a secuencias aleatorias, lo que supone su potencial utilización en el enmascaramiento de mensajes. Este hecho, junto a la posibilidad de sincronizar varios sistemas caóticos descrita inicialmente en los trabajos de Pecora y Carroll, ha generado una avalancha de trabajos de investigación donde se plantean muchas ideas sobre la forma de realizar sistemas de comunicaciones seguros, relacionando así la criptografía y el caos. La criptografía caótica aborda dos paradigmas de diseño fundamentales. En el primero, los criptosistemas caóticos se diseñan utilizando circuitos analógicos, principalmente basados en las técnicas de sincronización caótica; en el segundo, los criptosistemas caóticos se construyen en circuitos discretos u ordenadores, y generalmente no dependen de las técnicas de sincronización del caos. Nuestra contribución en esta tesis implica tres aspectos sobre el cifrado caótico. En primer lugar, se realiza un análisis teórico de las propiedades geométricas de algunos de los sistemas caóticos más empleados en el diseño de criptosistemas caóticos vii continuos; en segundo lugar, se realiza el criptoanálisis de cifrados caóticos continuos basados en el análisis anterior; y, finalmente, se realizan tres nuevas propuestas de diseño de generadores de secuencias pseudoaleatorias criptográficamente seguros y rápidos. La primera parte de esta memoria realiza un análisis crítico acerca de la seguridad de los criptosistemas caóticos, llegando a la conclusión de que la gran mayoría de los algoritmos de cifrado caóticos continuos —ya sean realizados físicamente o programados numéricamente— tienen serios inconvenientes para proteger la confidencialidad de la información ya que son inseguros e ineficientes. Asimismo una gran parte de los criptosistemas caóticos discretos propuestos se consideran inseguros y otros no han sido atacados por lo que se considera necesario más trabajo de criptoanálisis. Esta parte concluye señalando las principales debilidades encontradas en los criptosistemas analizados y algunas recomendaciones para su mejora. En la segunda parte se diseña un método de criptoanálisis que permite la identificaci ón de los parámetros, que en general forman parte de la clave, de algoritmos de cifrado basados en sistemas caóticos de Lorenz y similares, que utilizan los esquemas de sincronización excitador-respuesta. Este método se basa en algunas características geométricas del atractor de Lorenz. El método diseñado se ha empleado para criptoanalizar eficientemente tres algoritmos de cifrado. Finalmente se realiza el criptoanálisis de otros dos esquemas de cifrado propuestos recientemente. La tercera parte de la tesis abarca el diseño de generadores de secuencias pseudoaleatorias criptográficamente seguras, basadas en aplicaciones caóticas, realizando las pruebas estadísticas, que corroboran las propiedades de aleatoriedad. Estos generadores pueden ser utilizados en el desarrollo de sistemas de cifrado en flujo y para cubrir las necesidades del cifrado en tiempo real. Una cuestión importante en el diseño de sistemas de cifrado discreto caótico es la degradación dinámica debida a la precisión finita; sin embargo, la mayoría de los diseñadores de sistemas de cifrado discreto caótico no ha considerado seriamente este aspecto. En esta tesis se hace hincapié en la importancia de esta cuestión y se contribuye a su esclarecimiento con algunas consideraciones iniciales. Ya que las cuestiones teóricas sobre la dinámica de la degradación de los sistemas caóticos digitales no ha sido totalmente resuelta, en este trabajo utilizamos algunas soluciones prácticas para evitar esta dificultad teórica. Entre las técnicas posibles, se proponen y evalúan varias soluciones, como operaciones de rotación de bits y desplazamiento de bits, que combinadas con la variación dinámica de parámetros y con la perturbación cruzada, proporcionan un excelente remedio al problema de la degradación dinámica. Además de los problemas de seguridad sobre la degradación dinámica, muchos criptosistemas se rompen debido a su diseño descuidado, no a causa de los defectos esenciales de los sistemas caóticos digitales. Este hecho se ha tomado en cuenta en esta tesis y se ha logrado el diseño de generadores pseudoaleatorios caóticos criptogr áficamente seguros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Material elaborado por D. F. Sáez Vacas profesor de la asignatura de Ordenadores Electrónicos