728 resultados para Ordenadores


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Trabajo Fin de Grado, describe la implantación de un sistema de monitorización de redes informáticas. Se definirán los principales conceptos de monitorización, y se argumentará la elección de la herramienta finalmente seleccionada para llevarlo a cabo. Detallaremos el proceso de instalación, configuración y puesta en producción. Por último, se mostrará cómo funciona el sistema ya instalado sobre la red informática de la Empresa Pública de Turismo Andaluz, S.A., cubriendo las necesidades de control de sistemas desde su sede principal, sita en Málaga, al resto de provincias andaluzas, donde posee diversas sedes secundarias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las redes de comunicaciones son muy importantes para las empresas. Se solicita una red de altas prestaciones que pueda llevar muchos sistemas sobre ella (cámaras de seguridad, video, voz, datos, SCADA, wifi). Ahora también necesitamos que la red sea segura. Cuando hablamos de seguridad no solo nos referimos a evitar ataques o virus, también hablamos de cómo puede afectarnos el incendio de un centro de proceso de datos. Basándonos en la ISO 27001:2013 daremos las principales pautas para que la gestión de esta red sea segura. En este trabajo hemos securizado una red universitaria que usa tecnología MPLS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Preguntarse acerca de la influencia que la tecnología pueda tener en la mentalidad de la creación implica preguntarse acerca del pasado y del futuro de la creación. No es posible separar el desarrollo tecnológico del desarrollo de la creación, porque tanto la tecnología como la creación son actividades que caracterizan marcadamente al ser humano. En cierta medida, todo hombre crea y usa para ello la tecnología que encuentra a su alcance, a veces incluso como una caja negra, sin comprenderla verdaderamente. Recursivamente, uno de los productos distinguidos del proceso de creación es la tecnología. En líneas generales, la tecnología actúa sobre el significante. No actúa sobre los significados más que indirectamente. En el caso de la música, no es ella, ni tan sólo el sonido, el objeto directo de su actuación: por medio de las tecnologías que se han venido usando hasta ahora, únicamente se alteran las unidades materiales cuya organización, dado un cierto conjunto de características convergentes en una situación, posee una cierta significación. La música, el sonido, las imágenes, el arte, no existen más que como representaciones en algún cerebro, en algún sistema que los reconoce como tales. Ello no debe ser óbice para pensar que no existan: son tan reales como cualquier otro ente que podamos considerar, pero son fenómenos, no cosas. En cuanto a esas tecnologías que nos ocupan, quisiera destacar en primer lugar el hecho de que sus últimas contribuciones están estrechamente ligadas al uso de todo tipo de máquinas de computación digital, es decir, ordenadores digitales. Es importante tomar nota de ello porque la introducción de la discretización de las señales comporta capacidades de almacenamiento, manipulación y transporte jamás alcanzadas con anterioridad. Tal panorama tecnológico, sensiblemente más complejo de lo que aquí se esboza, evolucionará rápidamente hasta que la fibra óptica conecte un gran número de puntos distantes en el globo. Otro de los aspectos que al principio me proponía tratar, la dispersión geográfica de las actividades basadas en la aplicación de las tecnologías de la comunicación, está íntimamente relacionada con ello. Muchos Eventos Artísticos Basados en Telecomunicaciones (EABT) pueden producirse en áreas geográficas muy grandes y se diferencian de otras experiencias artísticas en que su percepción no puede ser global. La dispersión geográfica ocurre cuando un EABT se percibe o se genera de forma claramente parcial debido a las diferencias locales en lo que concierne a las posibilidades tecnológicas y a los canales por los que es transmitido. Piénsese, por ejemplo, en el caso de un EABT donde confluyen diversas contribuciones televisivas y radiofónicas cuya localización geográfica sea diseminada. Como cada emisión afecta a una zona que le es característica, la percepción del paisaje creado por ese EABT varía en función de la situación geográfica desde la que se pretende observar. La dispersión mediática ocurre en virtud de la confluencia de medios diferentes. Como todo tipo de imágenes visuales, acústicas, incluso cinestésicas, puede ser transmitido y reproducido a cualquier distancia para su posterior reelaboración, y como esas informaciones son esencialmente similares, la creación artística experimenta grandes facilidades especialmente en el hipermedio , ese lugar donde confluye gran número de medios de forma que, desde su terminal, cada elaborador de información puede acceder a informaciones procedentes de otros elaboradores, reelaborarlas, aunque 'a priori' no sean de su especialidad, y devolverlas nuevamente a su origen o mandarlas a un destino nuevo: el pensamiento se expresa al modificar la materia que le sirve de soporte y accede por esa vía al dominio de otros pensamientos. La creación -comportamiento, manifestación, síntoma, del pensamiento-, tradicionalmente se ha expresado a través de medios diversos, antiguamente estancos. La introducción de las nuevas tecnologías ha sido más o menos ardua en cada medio. En general, como las nuevas tecnologías son descendientes directos de la física y de las matemáticas, su relación con esos medios ha dependido de lo matematizable que cada uno haya sido a lo largo de su historia, amén de las dimensiones del reto tecnológico que la implementación de herramientas adecuadas supone. Ahora que los niveles de aplicación de la tecnología a los diversos medios está más equilibrada, la creación teleinformática tiende a expresarse a través de formas cada vez más híbridas. El efecto del incremento en la velocidad de intercambio de información en la creación parece claro: difícilmente los EABT podrán ser considerados como eventos cerrados sobre sí mismos. Se trata de procesos de comunicación globales en los que la creación toma parte y se automodifica. En realidad eso siempre ha ocurrido fuera del hipermedio y de las telecomunicaciones. La obra de un autor es un proceso artístico de comunicación, igual que las obras pertenecientes a un determinado estilo. La novedad está en que el ritmo del proceso por el que se produce el intercambio de información no ha sido nunca tan intenso como en este momento, en el que cabe esperar diferencias cualitativas. Sea dicho de paso que, como efecto colateral, el ruido informativo es creciente y se impone una maduración de las técnicas de selección, en el momento inicial de esta reflexión muy primitivas. Conferencia publicada por primera vez en Media-Culture. Claudia Giannetti, Ed. Ediciones L'Angelot.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Branching bisimilarity and branching bisimilarity with explicit divergences are typically used in process algebras with silent steps when relating implementations to specifications. When an implementation fails to conform to its specification, i.e., when both are not related by branching bisimilarity [with explicit divergence], pinpointing the root causes can be challenging. In this paper, we provide characterisations of branching bisimilarity [with explicit divergence] as games between Spoiler and Duplicator, offering an operational understanding of both relations. Moreover, we show how such games can be used to assist in diagnosing non-conformance between implementation and specification.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnología conocida como Microsoft Visual Studio Tools for Office (VSTO) ofrece la posibilidad de integrar Office con la plataforma .NET de forma que podamos implementar aplicaciones .NET con la apariencia de documentos de Microsoft Office. La utilización de la tecnología VSTO con hojas de cálculo para la creación de herramientas de simulación es un campo interesante por la familiaridad que las hojas de cálculo ofrecen a cualquier usuario. Cuando se desarrolla un complemento para un simulador, dicho complemento suele ser muy específico de un simulador concreto, por lo que los elementos desarrollados en estos proyectos no es posible reutilizarlos con otro simulador. Esta es la motivación que lleva a crear este proyecto: facilitar la creación de extensiones para Excel adaptables a distintos tipos de simulador, de manera que sea posible reutilizar las extensiones y sus elementos constituyentes.Para eso, se ha desarrollado un framework para la creación de extensiones Excel con VSTO que puedan ser fácilmente adaptables a diferentes tipos de simuladores. Los principales puntos que toca este framework son: - Elementos comunes a todo proyecto de simuladores. Se han ofrecido precargados un conjunto de elementos que son comunes en el desarrollo de estas aplicaciones, de manera que no sea necesario tener que implementarlos. - Definición de elementos de simulación, lo que se ha denominado en el framework controles. Se ha buscado reducir el coste de desarrollo y maximizar la reutilización. - Comunicación con los simuladores. Se ha definido e implementado una interfaz que permite la comunicación de las hojas Excel con los posibles motores de simulación. Se ha ofrecido esta interfaz en la interfaz ISimulatorService y se ha ofrecido también un cliente para comunicar con los simuladores de esta interfaz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

During the lifetime of a research project, different partners develop several research prototype tools that share many common aspects. This is equally true for researchers as individuals and as groups: during a period of time they often develop several related tools to pursue a specific research line. Making research prototype tools easily accessible to the community is of utmost importance to promote the corresponding research, get feedback, and increase the tools’ lifetime beyond the duration of a specific project. One way to achieve this is to build graphical user interfaces (GUIs) that facilitate trying tools; in particular, with web-interfaces one avoids the overhead of downloading and installing the tools. Building GUIs from scratch is a tedious task, in particular for web-interfaces, and thus it typically gets low priority when developing a research prototype. Often we opt for copying the GUI of one tool and modifying it to fit the needs of a new related tool. Apart from code duplication, these tools will “live” separately, even though we might benefit from having them all in a common environment since they are related. This work aims at simplifying the process of building GUIs for research prototypes tools. In particular, we present EasyInterface, a toolkit that is based on novel methodology that provides an easy way to make research prototype tools available via common different environments such as a web-interface, within Eclipse, etc. It includes a novel text-based output language that allows to present results graphically without requiring any knowledge in GUI/Web programming. For example, an output of a tool could be (a structured version of) “highlight line number 10 of file ex.c” and “when the user clicks on line 10, open a dialog box with the text ...”. The environment will interpret this output and converts it to corresponding visual e_ects. The advantage of using this approach is that it will be interpreted equally by all environments of EasyInterface, e.g., the web-interface, the Eclipse plugin, etc. EasyInterface has been developed in the context of the Envisage [5] project, and has been evaluated on tools developed in this project, which include static analyzers, test-case generators, compilers, simulators, etc. EasyInterface is open source and available at GitHub2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El actual auge de internet y las comunicaciones genera inmensas cantidades de información. De entre toda esta información tiene especial interés aquella que es personal y privada, ya que puede comprometer la seguridad o intimidad de las personas. La información médica de una persona es una de las más vulnerables y es de vital importancia proteger la identidad de los pacientes, así como los resultados y diagnósticos a los que se someten. Este trabajo se centra en intentar dificultar la identificación de una persona a partir de datos que se publican en las bases de datos médicas de los programas de screening, generando citas que agrupen individuos con mismos datos públicos: edad, género, etc... Se propone una solución basada en la programación con restricciones y se presenta una nueva medida de anonimato. Se compara experimentalmente el incremento en el anonimato que se obtiene en nuestra propuesta con respecto a la generación aleatoria de citas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy en día estamos inundados de cientos de sistemas digitales que juegan un papel discreto pero agradecido en muchas de nuestras actividades diarias. No hace muchos años, no sabíamos lo que era un mando a distancia y, hoy en día, no sabemos vivir sin él. Muchos productos de consumo basados en sistemas digitales son ya artículos de casi primera necesidad. La revolución digital, basada en Ia microelectrónica, Ia informática y las telecomunicaciones, comenzó en los años setenta con Ia aparición del microprocesador. En los 80, los microprocesadores facilitaron Ia llegada de los ordenadores personales (PC, Personal Computer) en un momento en el que nadie podía sospechar el éxito que alcanzarían. En los 90, triunfó el PC multimedia y su conexión a red junto con el auge de Ia telefonía móvil de segunda generación. La llegada del siglo XXI ha consolidado Internet y ha puesto las bases para el despliegue de Ia tercera generación de móviles. Los siguientes pasos apuntan entornos inteligentes donde terminales multimedia inalámbricos se comunicarán de forma espontánea con dispositivos próximos y podrán acceder a cualquier red de comunicaciones. Este manual pretende repasar esta revolución estudiando, desde un punto de vista hardware, los sistemas digitales basados en microprocesadores de última generación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los fundamentos, conceptos y modos de operación de estas máquinas tan comunes hoy en día, son los que tratamos de introducir y desentrañar en este texto. O con otras palabras, este libro está orientado a aquellas personas que alguna vez se han preguntado "¿Cómo es posible que los transistores y puertas lógicas que hay dentro de mi ordenador me permitan editar un archivo o ejecutar un programa que he escrito en Modula o en C?", pregunta, que por otro lado, esperamos se hayan planteado todos nuestros alumnos de asignaturas de introducción a los computadores. Aunque no son del todo necesarios, suponemos que el lector tiene algunos conocimientos de electrónica digital y programación. Pues bien, en este libro precisamente queremos cubrir el desnivel semántico que existe en un sistema computador entre esas dos materias (electrónica digital y lenguajes de alto nivel), contemplando el control microprogramado y cableado, el lenguaje ensamblador y los sistemas operativos, según desglosamos a continuación por temas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos tiempos se ha demostrado la importancia del aprendizaje en la Inteligencia humana, tanto en su vertiente de aprendizaje por observación como a través de la experiencia, como medio de identificar situaciones y predecir acciones o respuestas a partir de la información adquirida. Dado este esquema general de la Inteligencia Humana, parece razonable imitar su estructura y características en un intento por diseñar una arquitectura general de inteligencia aplicada a la Robótica. En este trabajo, inspirados por las teorías de Hawkins en su obra On Intelligence, hemos propuesto una arquitectura jerárquica de inteligencia en el que los diversos módulos se implementan a partir de Razonamiento basado en Casos ¿Case Based Reasoning (CBR)¿, una herramienta de IA especialmente apta para la adquisición de conocimiento a través del aprendizaje y para la predicción basada en similitud de información. Dentro de esta arquitectura la presente tesis se centra en las capas inferiores, las de tipo reactivo, expresadas en forma de comportamientos básicos, que implementan conductas sencillas pero indispensables para el funcionamiento de un robot. Estos comportamientos han sido tradicionalmente diseñados de forma algorítmica, con la dificultad que esto entraña en muchos casos por el desconocimiento de sus aspectos intrínsecos. Además, carecen de la capacidad de adaptarse ante nuevas situaciones no previstas y adquirir nuevos conocimientos a través del funcionamiento del robot, algo indispensable si se pretende que éste se desenvuelva en ambientes dinámicos y no estructurados. El trabajo de esta tesis considera la implementación de comportamientos reactivos con capacidad de aprendizaje, como forma de superar los inconvenientes anteriormente mencionados consiguiendo al mismo tiempo una mejor integración en la arquitectura general de Inteligencia considerada, en la cual el aprendizaje ocupa el papel principal. Así, se proponen y analizan diversas alternativas de diseño de comportamientos reactivos, construidos a través de sistemas CBR con capacidad de aprendizaje. En particular se estudia i) la problemática de selección, organización, y representación de la información como recipiente del conocimiento de los comportamientos;ii) los problemas asociados a la escalabilidad de esta información; iii) los aspectos que acompañan al proceso de predicción mediante la recuperación de la respuesta de experiencias previas similares a la presentada; iv) la identificación de la respuesta no solo con la acción a tomar por parte del comportamiento sino con un concepto que represente la situación presentada; y v) la adaptación y evaluación de la respuesta para incorporar nuevas situaciones como nuevo conocimiento del sistema. También se analiza la organización de comportamientos básicos que permite obtener, a través de sus interacciones, comportamientos emergentes de nivel superior aún dentro de un alcance reactivo. Todo ello se prueba con un robot real y con un simulador, en una variante de un escenario de aplicación clásico en Robótica, como es la competición Robocup. La elaboración de esta tesis ha supuesto, además de los aspectos puramente investigadores, un esfuerzo adicional en el desarrollo de las herramientas y metodología de pruebas necesarias para su realización. En este sentido, se ha programado un primer prototipo de marco de implementación de comportamientos reactivos con aprendizaje, basados en CBR, para la plataforma de desarrollo robótico Tekkotsu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De entre una serie de métodos estudiados acerca de la terminación de algoritmos, tales como Size-Change Termination o Isabelle, elegimos el método de RANK como instrumento para desarrollar nuestro propio programa de detección de terminación sobre el lenguaje de la IR. Esta decisión se basa en el coste polinómico de este método (frente a costes en PSPACE como el Size-Change Termination)y la posibilidad de obtener una herramienta asociada al mismo que además nos da la posibilidad de conocer un tiempo de ejecución aproximado. La herramienta asociada a RANK es compleja y va de la mano de una segunda herramienta (ASPIC). Hemos estudiado varios ejemplos, tales como el Mergesort o el Quicksort, para explicar la utilización de estas dos herramientas y a su vez ponernos en situación de los diferentes problemas que nos podemos encontrar a la hora de estudiar un programa. Partiendo del proceso que hemos usado para construir los automátas de los ejemplos anteriores, hemos diseñado e implementado en Java un algoritmo para transformar programas en el lenguaje de la IR al formato de entrada de RANK. Los resultados han sido satisfactorios, puesto que con los autómatas generados somos capaces de detectar de forma automatizada la terminación de, entre otros, los algoritmos recursivos antes mencionados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente cada vez son mayores las medidas de seguridad que nos rodean. Cada vez son más importantes y severas estas medidas de seguridad en infraestructuras y edificios públicos. Como consecuencia de estos hechos, cada vez se aumenta la necesidad de contar con personal de seguridad más cualificado y preparado. Esto ha provocado que aumente la demanda de formación en esta área, ya que las empresas de seguridad que operan en el aeropuerto deben formar a su personal para que puedan ejercer su trabajo con la mayor eficacia. Ante esta situación, hemos decidido desarrollar una aplicación para la formación de los alumnos en materia de seguridad aeroportuaria. Con esta aplicación, los usuarios pueden conseguir cualquiera de las tres certificaciones que emite AESA (Agencia Estatal de Seguridad Aérea). Cada certificación es distinta según la zona del aeropuerto en donde opere el alumno. Por tanto, el objetivo de este proyecto es la implementación de una herramienta de aprendizaje y evaluación por parte de alumnos, que está compuesta por dos aplicaciones que se relacionan mediante la arquitectura cliente-servidor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the multi-core CPU world, transactional memory (TM)has emerged as an alternative to lock-based programming for thread synchronization. Recent research proposes the use of TM in GPU architectures, where a high number of computing threads, organized in SIMT fashion, requires an effective synchronization method. In contrast to CPUs, GPUs offer two memory spaces: global memory and local memory. The local memory space serves as a shared scratch-pad for a subset of the computing threads, and it is used by programmers to speed-up their applications thanks to its low latency. Prior work from the authors proposed a lightweight hardware TM (HTM) support based in the local memory, modifying the SIMT execution model and adding a conflict detection mechanism. An efficient implementation of these features is key in order to provide an effective synchronization mechanism at the local memory level. After a quick description of the main features of our HTM design for GPU local memory, in this work we gather together a number of proposals designed with the aim of improving those mechanisms with high impact on performance. Firstly, the SIMT execution model is modified to increase the parallelism of the application when transactions must be serialized in order to make forward progress. Secondly, the conflict detection mechanism is optimized depending on application characteristics, such us the read/write sets, the probability of conflict between transactions and the existence of read-only transactions. As these features can be present in hardware simultaneously, it is a task of the compiler and runtime to determine which ones are more important for a given application. This work includes a discussion on the analysis to be done in order to choose the best configuration solution.