12 resultados para Ordenadores
em Repositorio Institucional de la Universidad de Málaga
Resumo:
La ciencia de la computación arrancó con la era de las máquinas tabulables para después pasar a las programables. Sin embargo el mundo actual vive una transformación radical de la información. Por un lado la avalancha masiva de datos, el llamado Big Data hace que los sistemas requieran de una inteligencia adicional para extraer conocimiento válido de los datos. Por otro lado demandamos cada día más ordenadores que nos entiendan y se comuniquen mejor con nosotros. La computación cognitiva, la nueva era de la computación, viene a responder a estas necesidades: sistemas que utilizan la inteligencia biológica como modelo para establecer una relación más satisfactoria con los seres humanos. El lenguaje natural, la capacidad de moverse en un mundo ambiguo y el aprendizaje son características de los sistemas cognitivos, uno de los cuales, IBM Watson es el ejemplo más elocuente en la actualidad de este nuevo paradigma.
Resumo:
Este Trabajo Fin de Grado, describe la implantación de un sistema de monitorización de redes informáticas. Se definirán los principales conceptos de monitorización, y se argumentará la elección de la herramienta finalmente seleccionada para llevarlo a cabo. Detallaremos el proceso de instalación, configuración y puesta en producción. Por último, se mostrará cómo funciona el sistema ya instalado sobre la red informática de la Empresa Pública de Turismo Andaluz, S.A., cubriendo las necesidades de control de sistemas desde su sede principal, sita en Málaga, al resto de provincias andaluzas, donde posee diversas sedes secundarias.
Resumo:
Las redes de comunicaciones son muy importantes para las empresas. Se solicita una red de altas prestaciones que pueda llevar muchos sistemas sobre ella (cámaras de seguridad, video, voz, datos, SCADA, wifi). Ahora también necesitamos que la red sea segura. Cuando hablamos de seguridad no solo nos referimos a evitar ataques o virus, también hablamos de cómo puede afectarnos el incendio de un centro de proceso de datos. Basándonos en la ISO 27001:2013 daremos las principales pautas para que la gestión de esta red sea segura. En este trabajo hemos securizado una red universitaria que usa tecnología MPLS.
Resumo:
Preguntarse acerca de la influencia que la tecnología pueda tener en la mentalidad de la creación implica preguntarse acerca del pasado y del futuro de la creación. No es posible separar el desarrollo tecnológico del desarrollo de la creación, porque tanto la tecnología como la creación son actividades que caracterizan marcadamente al ser humano. En cierta medida, todo hombre crea y usa para ello la tecnología que encuentra a su alcance, a veces incluso como una caja negra, sin comprenderla verdaderamente. Recursivamente, uno de los productos distinguidos del proceso de creación es la tecnología. En líneas generales, la tecnología actúa sobre el significante. No actúa sobre los significados más que indirectamente. En el caso de la música, no es ella, ni tan sólo el sonido, el objeto directo de su actuación: por medio de las tecnologías que se han venido usando hasta ahora, únicamente se alteran las unidades materiales cuya organización, dado un cierto conjunto de características convergentes en una situación, posee una cierta significación. La música, el sonido, las imágenes, el arte, no existen más que como representaciones en algún cerebro, en algún sistema que los reconoce como tales. Ello no debe ser óbice para pensar que no existan: son tan reales como cualquier otro ente que podamos considerar, pero son fenómenos, no cosas. En cuanto a esas tecnologías que nos ocupan, quisiera destacar en primer lugar el hecho de que sus últimas contribuciones están estrechamente ligadas al uso de todo tipo de máquinas de computación digital, es decir, ordenadores digitales. Es importante tomar nota de ello porque la introducción de la discretización de las señales comporta capacidades de almacenamiento, manipulación y transporte jamás alcanzadas con anterioridad. Tal panorama tecnológico, sensiblemente más complejo de lo que aquí se esboza, evolucionará rápidamente hasta que la fibra óptica conecte un gran número de puntos distantes en el globo. Otro de los aspectos que al principio me proponía tratar, la dispersión geográfica de las actividades basadas en la aplicación de las tecnologías de la comunicación, está íntimamente relacionada con ello. Muchos Eventos Artísticos Basados en Telecomunicaciones (EABT) pueden producirse en áreas geográficas muy grandes y se diferencian de otras experiencias artísticas en que su percepción no puede ser global. La dispersión geográfica ocurre cuando un EABT se percibe o se genera de forma claramente parcial debido a las diferencias locales en lo que concierne a las posibilidades tecnológicas y a los canales por los que es transmitido. Piénsese, por ejemplo, en el caso de un EABT donde confluyen diversas contribuciones televisivas y radiofónicas cuya localización geográfica sea diseminada. Como cada emisión afecta a una zona que le es característica, la percepción del paisaje creado por ese EABT varía en función de la situación geográfica desde la que se pretende observar. La dispersión mediática ocurre en virtud de la confluencia de medios diferentes. Como todo tipo de imágenes visuales, acústicas, incluso cinestésicas, puede ser transmitido y reproducido a cualquier distancia para su posterior reelaboración, y como esas informaciones son esencialmente similares, la creación artística experimenta grandes facilidades especialmente en el hipermedio , ese lugar donde confluye gran número de medios de forma que, desde su terminal, cada elaborador de información puede acceder a informaciones procedentes de otros elaboradores, reelaborarlas, aunque 'a priori' no sean de su especialidad, y devolverlas nuevamente a su origen o mandarlas a un destino nuevo: el pensamiento se expresa al modificar la materia que le sirve de soporte y accede por esa vía al dominio de otros pensamientos. La creación -comportamiento, manifestación, síntoma, del pensamiento-, tradicionalmente se ha expresado a través de medios diversos, antiguamente estancos. La introducción de las nuevas tecnologías ha sido más o menos ardua en cada medio. En general, como las nuevas tecnologías son descendientes directos de la física y de las matemáticas, su relación con esos medios ha dependido de lo matematizable que cada uno haya sido a lo largo de su historia, amén de las dimensiones del reto tecnológico que la implementación de herramientas adecuadas supone. Ahora que los niveles de aplicación de la tecnología a los diversos medios está más equilibrada, la creación teleinformática tiende a expresarse a través de formas cada vez más híbridas. El efecto del incremento en la velocidad de intercambio de información en la creación parece claro: difícilmente los EABT podrán ser considerados como eventos cerrados sobre sí mismos. Se trata de procesos de comunicación globales en los que la creación toma parte y se automodifica. En realidad eso siempre ha ocurrido fuera del hipermedio y de las telecomunicaciones. La obra de un autor es un proceso artístico de comunicación, igual que las obras pertenecientes a un determinado estilo. La novedad está en que el ritmo del proceso por el que se produce el intercambio de información no ha sido nunca tan intenso como en este momento, en el que cabe esperar diferencias cualitativas. Sea dicho de paso que, como efecto colateral, el ruido informativo es creciente y se impone una maduración de las técnicas de selección, en el momento inicial de esta reflexión muy primitivas. Conferencia publicada por primera vez en Media-Culture. Claudia Giannetti, Ed. Ediciones L'Angelot.
Resumo:
La tecnología conocida como Microsoft Visual Studio Tools for Office (VSTO) ofrece la posibilidad de integrar Office con la plataforma .NET de forma que podamos implementar aplicaciones .NET con la apariencia de documentos de Microsoft Office. La utilización de la tecnología VSTO con hojas de cálculo para la creación de herramientas de simulación es un campo interesante por la familiaridad que las hojas de cálculo ofrecen a cualquier usuario. Cuando se desarrolla un complemento para un simulador, dicho complemento suele ser muy específico de un simulador concreto, por lo que los elementos desarrollados en estos proyectos no es posible reutilizarlos con otro simulador. Esta es la motivación que lleva a crear este proyecto: facilitar la creación de extensiones para Excel adaptables a distintos tipos de simulador, de manera que sea posible reutilizar las extensiones y sus elementos constituyentes.Para eso, se ha desarrollado un framework para la creación de extensiones Excel con VSTO que puedan ser fácilmente adaptables a diferentes tipos de simuladores. Los principales puntos que toca este framework son: - Elementos comunes a todo proyecto de simuladores. Se han ofrecido precargados un conjunto de elementos que son comunes en el desarrollo de estas aplicaciones, de manera que no sea necesario tener que implementarlos. - Definición de elementos de simulación, lo que se ha denominado en el framework controles. Se ha buscado reducir el coste de desarrollo y maximizar la reutilización. - Comunicación con los simuladores. Se ha definido e implementado una interfaz que permite la comunicación de las hojas Excel con los posibles motores de simulación. Se ha ofrecido esta interfaz en la interfaz ISimulatorService y se ha ofrecido también un cliente para comunicar con los simuladores de esta interfaz.
Resumo:
Hoy en día estamos inundados de cientos de sistemas digitales que juegan un papel discreto pero agradecido en muchas de nuestras actividades diarias. No hace muchos años, no sabíamos lo que era un mando a distancia y, hoy en día, no sabemos vivir sin él. Muchos productos de consumo basados en sistemas digitales son ya artículos de casi primera necesidad. La revolución digital, basada en Ia microelectrónica, Ia informática y las telecomunicaciones, comenzó en los años setenta con Ia aparición del microprocesador. En los 80, los microprocesadores facilitaron Ia llegada de los ordenadores personales (PC, Personal Computer) en un momento en el que nadie podía sospechar el éxito que alcanzarían. En los 90, triunfó el PC multimedia y su conexión a red junto con el auge de Ia telefonía móvil de segunda generación. La llegada del siglo XXI ha consolidado Internet y ha puesto las bases para el despliegue de Ia tercera generación de móviles. Los siguientes pasos apuntan entornos inteligentes donde terminales multimedia inalámbricos se comunicarán de forma espontánea con dispositivos próximos y podrán acceder a cualquier red de comunicaciones. Este manual pretende repasar esta revolución estudiando, desde un punto de vista hardware, los sistemas digitales basados en microprocesadores de última generación.
Resumo:
Los fundamentos, conceptos y modos de operación de estas máquinas tan comunes hoy en día, son los que tratamos de introducir y desentrañar en este texto. O con otras palabras, este libro está orientado a aquellas personas que alguna vez se han preguntado "¿Cómo es posible que los transistores y puertas lógicas que hay dentro de mi ordenador me permitan editar un archivo o ejecutar un programa que he escrito en Modula o en C?", pregunta, que por otro lado, esperamos se hayan planteado todos nuestros alumnos de asignaturas de introducción a los computadores. Aunque no son del todo necesarios, suponemos que el lector tiene algunos conocimientos de electrónica digital y programación. Pues bien, en este libro precisamente queremos cubrir el desnivel semántico que existe en un sistema computador entre esas dos materias (electrónica digital y lenguajes de alto nivel), contemplando el control microprogramado y cableado, el lenguaje ensamblador y los sistemas operativos, según desglosamos a continuación por temas.
Resumo:
En los últimos tiempos se ha demostrado la importancia del aprendizaje en la Inteligencia humana, tanto en su vertiente de aprendizaje por observación como a través de la experiencia, como medio de identificar situaciones y predecir acciones o respuestas a partir de la información adquirida. Dado este esquema general de la Inteligencia Humana, parece razonable imitar su estructura y características en un intento por diseñar una arquitectura general de inteligencia aplicada a la Robótica. En este trabajo, inspirados por las teorías de Hawkins en su obra On Intelligence, hemos propuesto una arquitectura jerárquica de inteligencia en el que los diversos módulos se implementan a partir de Razonamiento basado en Casos ¿Case Based Reasoning (CBR)¿, una herramienta de IA especialmente apta para la adquisición de conocimiento a través del aprendizaje y para la predicción basada en similitud de información. Dentro de esta arquitectura la presente tesis se centra en las capas inferiores, las de tipo reactivo, expresadas en forma de comportamientos básicos, que implementan conductas sencillas pero indispensables para el funcionamiento de un robot. Estos comportamientos han sido tradicionalmente diseñados de forma algorítmica, con la dificultad que esto entraña en muchos casos por el desconocimiento de sus aspectos intrínsecos. Además, carecen de la capacidad de adaptarse ante nuevas situaciones no previstas y adquirir nuevos conocimientos a través del funcionamiento del robot, algo indispensable si se pretende que éste se desenvuelva en ambientes dinámicos y no estructurados. El trabajo de esta tesis considera la implementación de comportamientos reactivos con capacidad de aprendizaje, como forma de superar los inconvenientes anteriormente mencionados consiguiendo al mismo tiempo una mejor integración en la arquitectura general de Inteligencia considerada, en la cual el aprendizaje ocupa el papel principal. Así, se proponen y analizan diversas alternativas de diseño de comportamientos reactivos, construidos a través de sistemas CBR con capacidad de aprendizaje. En particular se estudia i) la problemática de selección, organización, y representación de la información como recipiente del conocimiento de los comportamientos;ii) los problemas asociados a la escalabilidad de esta información; iii) los aspectos que acompañan al proceso de predicción mediante la recuperación de la respuesta de experiencias previas similares a la presentada; iv) la identificación de la respuesta no solo con la acción a tomar por parte del comportamiento sino con un concepto que represente la situación presentada; y v) la adaptación y evaluación de la respuesta para incorporar nuevas situaciones como nuevo conocimiento del sistema. También se analiza la organización de comportamientos básicos que permite obtener, a través de sus interacciones, comportamientos emergentes de nivel superior aún dentro de un alcance reactivo. Todo ello se prueba con un robot real y con un simulador, en una variante de un escenario de aplicación clásico en Robótica, como es la competición Robocup. La elaboración de esta tesis ha supuesto, además de los aspectos puramente investigadores, un esfuerzo adicional en el desarrollo de las herramientas y metodología de pruebas necesarias para su realización. En este sentido, se ha programado un primer prototipo de marco de implementación de comportamientos reactivos con aprendizaje, basados en CBR, para la plataforma de desarrollo robótico Tekkotsu.
Resumo:
In the multi-core CPU world, transactional memory (TM)has emerged as an alternative to lock-based programming for thread synchronization. Recent research proposes the use of TM in GPU architectures, where a high number of computing threads, organized in SIMT fashion, requires an effective synchronization method. In contrast to CPUs, GPUs offer two memory spaces: global memory and local memory. The local memory space serves as a shared scratch-pad for a subset of the computing threads, and it is used by programmers to speed-up their applications thanks to its low latency. Prior work from the authors proposed a lightweight hardware TM (HTM) support based in the local memory, modifying the SIMT execution model and adding a conflict detection mechanism. An efficient implementation of these features is key in order to provide an effective synchronization mechanism at the local memory level. After a quick description of the main features of our HTM design for GPU local memory, in this work we gather together a number of proposals designed with the aim of improving those mechanisms with high impact on performance. Firstly, the SIMT execution model is modified to increase the parallelism of the application when transactions must be serialized in order to make forward progress. Secondly, the conflict detection mechanism is optimized depending on application characteristics, such us the read/write sets, the probability of conflict between transactions and the existence of read-only transactions. As these features can be present in hardware simultaneously, it is a task of the compiler and runtime to determine which ones are more important for a given application. This work includes a discussion on the analysis to be done in order to choose the best configuration solution.
Resumo:
Current industry proposals for Hardware Transactional Memory (HTM) focus on best-effort solutions (BE-HTM) where hardware limits are imposed on transactions. These designs may show a significant performance degradation due to high contention scenarios and different hardware and operating system limitations that abort transactions, e.g. cache overflows, hardware and software exceptions, etc. To deal with these events and to ensure forward progress, BE-HTM systems usually provide a software fallback path to execute a lock-based version of the code. In this paper, we propose a hardware implementation of an irrevocability mechanism as an alternative to the software fallback path to gain insight into the hardware improvements that could enhance the execution of such a fallback. Our mechanism anticipates the abort that causes the transaction serialization, and stalls other transactions in the system so that transactional work loss is mini- mized. In addition, we evaluate the main software fallback path approaches and propose the use of ticket locks that hold precise information of the number of transactions waiting to enter the fallback. Thus, the separation of transactional and fallback execution can be achieved in a precise manner. The evaluation is carried out using the Simics/GEMS simulator and the complete range of STAMP transactional suite benchmarks. We obtain significant performance benefits of around twice the speedup and an abort reduction of 50% over the software fallback path for a number of benchmarks.
Resumo:
Sensor networks are becoming popular nowadays in the development of smart environments. Heavily relying on static sensor and actuators, though, such environments usually lacks of versatility regarding the provided services and interaction capabilities. Here we present a framework for smart environments where a service robot is included within the sensor network acting as a mobile sensor and/or actuator. Our framework integrates on-the-shelf technologies to ensure its adaptability to a variety of sensor technologies and robotic software. Two pilot cases are presented as evaluation of our proposal.
Resumo:
Actualmente existe una enorme cantidad de dispositivos y sistemas, como ordenadores portátiles y teléfonos móviles, que dependen de una batería para su funcionamiento. Como consecuencia, el hardware que incorporan debe ser energéticamente eficiente. La industria, para soportar este mercado, está desarrollando procesadores con el objetivo de reducir su consumo energético. Por ejemplo, ARM propone la arquitectura big.LITTLE como un procesador multi-núcleo heterogéneo: unos núcleos más rápidos para aplicaciones orientadas al rendimiento, y otros más lentos orientados a la eficiencia energética. Puesto que todos los núcleos acceden a la misma memoria física, las aplicaciones multi-hilo deben recurrir a algún tipo de sincronización para coordinar el acceso a los datos compartidos. La memoria transaccional (TM) es una solución optimista para ofrecer sincronización de hilos concurrentes en memoria compartida. En TM se permite el acceso en paralelo a los datos compartidos y, mediante un mecanismo de detección de conflictos, se puede garantizar la exclusión mútua. Para beneficiarse de las ventajas que ofrece TM, así como de las características de los procesadores heterogéneos de bajo consumo, es necesario que las soluciones de TM tengan en cuenta los requisitos energéticos y de rendimiento de las aplicaciones en consonancia con lo que ofrece el procesador. Como paso inicial, hay que comprender el rendimiento y consumo energético de las soluciones TM actuales. Para ello, hemos realizado una evaluación de consumo y rendimiento de una librería de TM software, TinySTM, sobre un procesador del tipo big.LITTLE. Los resultados revelan una buena escalabilidad en los núcleos de bajo consumo para la mayoría de las aplicaciones evaluadas. Sin embargo, la aplicación con mayores requerimientos de cómputo resulta ser energéticamente más eficiente en los núcleos orientados al rendimiento, a pesar de su mayor consumo.