942 resultados para Computación en la nube
Resumo:
Incluye Bibliografía
Resumo:
Incluye Bibliografía
Resumo:
Las Redes de Procesadores Evolutivos-NEP propuestas en [Mitrana et al., 2001], son un modelo computacional bio-inspirado a partir de la evolución de poblaciones de células, definiendo a nivel sintáctico algunas propiedades biológicas. En este modelo, las células están representadas por medio de palabras que describen secuencias de ADN. Informalmente, en algún instante de tiempo, el sistema evolutivo está representado por una colección de palabras cada una de las cuales representa una célula. El espacio genotipo de las especies, es un conjunto que recoge aquellas palabras que son aceptadas como sobrevivientes (es decir, como \correctas"). Desde el punto de vista de la evolución, las células pertenecen a especies y su comunidad evoluciona de acuerdo a procesos biológicos como la mutación y la división celular. éstos procesos representan el proceso natural de evolución y ponen de manifiesto una característica intrínseca de la naturaleza: el paralelismo. En este modelo, estos procesos son vistos como operaciones sobre palabras. Formalmente, el modelo de las NEP constituyen una arquitectura paralela y distribuida de procesamiento simbólico inspirada en la Máquina de conexión [Hillis, 1981], en el Paradigma de Flujo Lógico [Errico and Jesshope, 1994] y en las Redes de Procesadores Paralelos de Lenguajes (RPPL) [Csuhaj-Varju and Salomaa, 1997]. Al modelo NEP se han ido agregando nuevas y novedosas extensiones hasta el punto que actualmente podemos hablar de una familia de Redes de Procesadores Bio-inspirados (NBP) [Mitrana et al., 2012b]. Un considerable número de trabajos a lo largo de los últimos años han demostrado la potencia computacional de la familia NBP. En general, éstos modelos son computacionalmente completos, universales y eficientes [Manea et al., 2007], [Manea et al., 2010b], [Mitrana and Martín-Vide, 2005]. De acuerdo a lo anterior, se puede afirmar que el modelo NEP ha adquirido hasta el momento un nivel de madurez considerable. Sin embargo, aunque el modelo es de inspiración biológica, sus metas siguen estando motivadas en la Teoría de Lenguajes Formales y las Ciencias de la Computación. En este sentido, los aspectos biológicos han sido abordados desde una perspectiva cualitativa y el acercamiento a la realidad biológica es de forma meramente sintáctica. Para considerar estos aspectos y lograr dicho acercamiento es necesario que el modelo NEP tenga una perspectiva más amplia que incorpore la interacción de aspectos tanto cualitativos como cuantitativos. La contribución de esta Tesis puede considerarse como un paso hacia adelante en una nueva etapa de los NEPs, donde el carácter cuantitativo del modelo es de primordial interés y donde existen posibilidades de un cambio visible en el enfoque de interés del dominio de los problemas a considerar: de las ciencias de la computación hacia la simulación/modelado biológico y viceversa, entre otros. El marco computacional que proponemos en esta Tesis extiende el modelo de las Redes de Procesadores Evolutivos (NEP) y define arquitectura inspirada en la definición de bloques funcionales del proceso de señalización celular para la solución de problemas computacionales complejos y el modelado de fenómenos celulares desde una perspectiva discreta. En particular, se proponen dos extensiones: (1) los Transductores basados en Redes de Procesadores Evolutivos (NEPT), y (2) las Redes Parametrizadas de Procesadores Evolutivos Polarizados (PNPEP). La conservación de las propiedades y el poder computacional tanto de NEPT como de PNPEP se demuestra formalmente. Varias simulaciones de procesos relacionados con la señalización celular son abordadas sintáctica y computacionalmente, con el _n de mostrar la aplicabilidad e idoneidad de estas dos extensiones. ABSTRACT Network of Evolutionary Processors -NEP was proposed in [Mitrana et al., 2001], as a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells accepted as survivors (correct) are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing inspired from the Connection Machine [Hillis, 1981], the Flow Logic Paradigm [Errico and Jesshope, 1994] and the Networks of Parallel Language Processors (RPPL) [Csuhaj-Varju and Salomaa, 1997]. Since the date when NEP was proposed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP) [Mitrana et al., 2012b]. During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated [Manea et al., 2007, Manea et al., 2010b, Mitrana and Martín-Vide, 2005]. Therefore, we can say that the NEP model has reached its maturity. Nevertheless, although the NEP model is biologically inspired, this model is mainly motivated by mathematical and computer science goals. In this context, the biological aspects are only considered from a qualitative and syntactical perspective. In view of this lack, it is important to try to keep the NEP theory as close as possible to the biological reality, extending their perspective incorporating the interplay of qualitative and quantitative aspects. The contribution of this Thesis, can be considered as a starting point in a new era of the NEP model. Then, the quantitative character of the NEP model is mandatory and it can address completely new different types of problems with respect to the classical computational domain (e.g. from the computer science to system biology). Therefore, the computational framework that we propose extends the NEP model and defines an architecture inspired by the functional blocks from cellular signaling in order to solve complex computational problems and cellular phenomena modeled from a discrete perspective. Particularly, we propose two extensions, namely: (1) Transducers based on Network of Evolutionary Processors (NEPT), and (2) Parametrized Network of Polarized Evolutionary Processors (PNPEP). Additionally, we have formally proved that the properties and computational power of NEP is kept in both extensions. Several simulations about processes related with cellular signaling both syntactical and computationally have been considered to show the model suitability.
Resumo:
El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.
Resumo:
La segmentación automática del sistema fluvial con base geomorfológica puede ser una herramienta útil en la restauración de ríos. Tradicionalmente el criterio experto permitía identificar tramos fluviales homogéneos; sin embargo, existen métodos automáticos más objetivos y fiables favorecidos por avances en las técnicas de computación, en las tecnologías de sistemas de información geográfica y en la calidad de la información espacial. Se han aplicado métodos de segmentación automática a respuestas univariantes y multivariantes, basados en técnicas permutacionales y de randomnización multi-respuesta sobre variables geomorfológicas sistemáticamente extraídas con la ayuda de sistemas de información geográfica. Se muestra la utilidad de esta herramienta en distintas fases de un proyecto de restauración, como son: la caracterización del contexto geomorfológico, la diagnosis del efecto de presiones sobre el sistema y la identificación de tramos preferentes para su conservación. Las técnicas descritas se han aplicado al río Porma (Cuenca del Duero, León) regulado desde 1968.
Resumo:
El ritmo vertiginoso al que está evolucionando el sector de las telecomunicaciones a nivel mundial, así como las posibilidades que ofrecen los actuales sistemas de comunicación, las nuevas tecnologías de la información y la implantación de las mismas en los hábitos de vida de la sociedad en general, han convertido a las titulaciones de telecomunicaciones en unos estudios con una alta demanda por parte del alumnado y con unas interesantes perspectivas de futuro gracias al amplio abanico de posibilidades que abarcan. En la Universidad de Alicante comenzaron a impartirse estudios de telecomunicación en el año 1999 con la implantación de la Ingeniería Técnica de Telecomunicación, especialidad en Sonido e Imagen. Con la adaptación al EEES, los estudios se adaptaron en el año 2011 con el comienzo del Grado en Ingeniería en Sonido e Imagen en Telecomunicación, así como con el curso específico de Adaptación al Grado en Ingeniería en Sonido e Imagen en Telecomunicación que establece el puente que permite a nuestros propios titulados (entre otros) adaptar su titulación a los nuevos estudios actuales. A fecha de hoy, la Universidad de Alicante ha dado un paso más, impartiendo desde este curso 2011-2012 el Máster Universitario en Ingeniería de Telecomunicación y permitiendo a los estudiantes completar su formación en Telecomunicaciones en su propia universidad.
Resumo:
La Criptografía Basada en la Identidad hace uso de curvas elípticas que satisfacen ciertas condiciones (pairingfriendly curves), en particular, el grado de inmersión de dichas curvas debe ser pequeño. En este trabajo se obtienen familias explicitas de curvas elípticas idóneas para este escenario. Dicha criptografía está basada en el cálculo de emparejamientos sobre curvas, cálculo factible gracias al algoritmo de Miller. Proponemos una versión más eficiente que la clásica de este algoritmo usando la representación de un número en forma no adyacente (NAF).
Resumo:
La importancia de asegurar la comunicación entre personas ha crecido a medida que se ha avanzado en la sofisticación y el alcance de los mecanismos provistos para ello. Ahora, en la era digital, el alcance de estas comunicaciones es global y surge la necesidad de confiar en infraestructuras que suplan la imposibilidad de identificar a ambos extremos de la comunicación. Es la infraestructura de autoridades de certificación y la gestión correcta de certificados digitales la que ha facilitado una aproximación más eficiente para cubrir esta demanda. Existen, sin embargo, algunos aspectos de esta infraestructura o de la implementación de algunos de sus mecanismos que pueden ser aprovechados para vulnerar la seguridad que su uso debe garantizar. La presente investigación profundiza en alguno de estos aspectos y analiza la validez de las soluciones propuestas por grandes productores de software frente a escenarios realistas.
Resumo:
La incorporación del EEES provocó una infinidad de desafíos y retos a las Universidades que a día de hoy aún están siendo solucionados. Además, ha conllevado nuevas oportunidades para la formación de estudiantes pero también para las Universidades. Entre ellas, la formación interuniversitaria entre estados miembro de la UE. El EEES permite unificar a través del sistema ECTS la carga de trabajo de los estudiantes facilitando la propuesta de planes de estudios interuniversitarios. Sin embargo, surgen desafíos a la hora de llevarlos a la práctica. Independientemente de los retos en la propuesta de los planes de estudio, es necesario implementar procesos de enseñanza-aprendizaje que salven la distancia en el espacio físico entre el alumnado y el profesorado. En este artículo se presenta la experiencia docente de la asignatura e-home del Máster Machine Learning and Data Mining de la Universidad de Alicante y la Universidad Jean Monnet (Francia). En este caso, se combina la formación en aula presencial con formación en aula virtual a través de videoconferencia. La evaluación del método de enseñanza-aprendizaje propuesto utiliza la propia experiencia docente y encuestas realizadas a los alumnos para poner de manifiesto la ruptura de barreras espaciales y un éxito a nivel docente.
Resumo:
El PAT en la Escuela Politécnica está abierto a todos aquellos tutores que deseen formar parte del plan y también a todos los alumnos, que, voluntariamente pueden marcar la opción de participar en el plan en la matrícula, y también a aquellos que, a pesar de no marcar la opción en la matrícula, finalmente han decidido seguir el plan de acción tutorial. Esta característica de participación e inscripción voluntaria permite que el trabajo se realice más satisfactoriamente tanto por parte de tutores como por parte de los alumnos, puesto que han decidido seguir el plan por ello mismos y no como una imposición. Con este trabajo nos proponemos presentar nuestras experiencias en el desarrollo de la tutorización de nuestros estudiantes así como la evolución en el desarrollo de la tutorización por pares.
Resumo:
La Universidad de Alicante es una de las instituciones de educación superior que ha querido recoger el guante lanzado por la reciente aparición de los cursos en abierto, en línea y masivos (MOOC — Massive Open Online Course) para emprender una iniciativa propia que hemos denominado Educación Digital para el Futuro (UA|edf). Pero antes de tomar decisiones, había que analizar el estado de la situación y, sobre todo, su posible evolución. En este trabajo se expone de forma sintetizada el estudio realizado, se describe la estrategia de implementación adoptada en nuestra institución junto con las decisiones funcionales, técnicas y tecnológicas empleadas para su rápida puesta en marcha y, para finalizar, se discute una política de federación con otras instituciones cuya finalidad es alcanzar una propuesta realista y sostenible.
Resumo:
En la asignatura Sistemas Inteligentes del grado en Ingeniería Informática, durante el curso 2012-13, se planteó a los estudiantes un sistema de evaluación de la parte teórica consistente en la realización de controles on-line utilizando cuestionarios Moodle. Para la elaboración de los cuestionarios, se elegirían preguntas propuestas por los estudiantes en cada uno de los foros temáticos correspondientes. De cada tema se creó una base de preguntas Moodle para la generación con restricciones de cuestionarios aleatorios. El funcionamiento de los foros de aportación de preguntas partía de un foro creado para cada tema donde los estudiantes iban añadiendo un hilo para cada pregunta que proponían. En el hilo se producía el debate y participación de los estudiantes relativo al contenido y calidad de la pregunta. Una vez cerrado cada foro, los profesores seleccionaban las que cumplían requisitos de calidad, creando así la base de preguntas de los cuestionarios Moodle. La asignatura ha tenido más de 120 estudiantes, con 14 foros, lo que ha hecho que se superaran los 1.500 hilos de preguntas. En este artículo se presenta la encuesta de valoración por parte de los estudiantes, así como detalles de participación en los foros, los resultados obtenidos y las conclusiones. Deseamos destacar el soporte de la “Red de Investigación en Sistemas Inteligentes. Uso de los foros Moodle en la metodología docente” para realizar este estudio. Código de Red ICE: 2847.
Resumo:
La enseñanza de Gestión del Proceso Constructivo en el grado de Arquitectura Técnica se realiza actualmente siguiendo un esquema teórico-práctico. A través de clases magistrales se define el proceso constructivo de una edificación y la relación e interdependencia entre los oficios. Estos contenidos se refuerzan en las sesiones prácticas a través de la herramienta gráfica diagrama de Gantt, donde el alumno se enfrenta de manera individual a la planificación de la obra siguiendo los criterios estipulados en la asignatura. Esta metodología no permite a los estudiantes enfrentarse a los problemas frecuentes de re-planificación y gestión de imprevistos en el entorno de la construcción. Como consecuencia, se plantea una propuesta para la implementación de la herramienta Last Planner en la asignatura como sistema de planificación colaborativa basado en la filosofía Lean Construction. A través del uso de Last Planner como técnica de Gamificación se pretende dotar de dinamismo a las sesiones teórico-prácticas. En cada sesión se simularán diferentes escenarios que requieran procesos constructivos variados, favoreciendo la motivación del alumnado, su capacidad para aprender y proponer soluciones justificadas huyendo de soluciones rígidas y estándar, y el trabajo en equipo de forma colaborativa.
Resumo:
Al igual que en cursos anteriores en la Escuela Politécnica se desarrolla, promovido por el Vicerrectorado de Estudios, Formación y Calidad, coordinado desde el Instituto de Ciencias de la Educación, el Plan de Acción Tutorial (PAT) el cual está abierto a todos aquellos tutores que deseen formar parte del plan y también a todos los estudiantes, que, voluntariamente pueden marcar la opción de participar en el plan en la matrícula, y también a aquellos que, a pesar de no marcar la opción en la matrícula, finalmente han decidido seguir el plan de acción tutorial. Esta característica de participación e inscripción voluntaria permite que el trabajo se realice más satisfactoriamente tanto por parte de tutores como por parte de los estudiantes, puesto que han decidido seguir el plan por ello mismos y no como una imposición. Con este resumen nos proponemos presentar nuestras experiencias en el desarrollo del PAT de nuestro centro.