1000 resultados para Procesamiento electrónico de datos -- Industria -- Estudio de casos
Resumo:
Este artículo se centra en el análisis de redes personales digitales de un grupo de adolescentes del último año de una escuela secundaria de gestión privada en Mendoza, Argentina. Se escogió Facebook porque es la red más difundida entre ellos. El objetivo de este estudio fue analizar las redes de Facebook de adolescentes de una escuela con una fuerte implementación de las TIC y comprender las percepciones que tienen sobre sus vinculaciones digitales. La recolección de los datos fueron tres momentos (administración de TouchGraph sobre Facebook, entrevista individual y Focus Group). El análisis de los datos fue cuantitativo, de análisis de grafos y cualitativo. Con respecto a los resultados se observaron que los varones tuvieron redes con mayor dispersión en cuanto al número de miembros y las mujeres mayor homogeneidad (menor número de subgrupos). En los grafos se observó que la familia tuvo una baja importancia (está aislada, es pequeña y con baja relación o no está). El análisis cualitativo, reveló un acercamiento crítico a Facebook y que la protección de la privacidad obstaculiza la relación a través de esta red con la escuela y los padres. Finalmente las redes personales digitales brindan apoyo afectivo, informacional, tangible y axiológico.
Resumo:
Durante los años 2008, 2009 y 2010 se han llevado a cabo, a nivel estatal, diversas actuaciones encaminadas a evaluar la alteración ecohidrológica de las masas de agua. Esta evaluación se llevó a cabo con la metodología y aplicación IAHRIS. Durante el desarrollo de estos trabajos se constató la necesidad de crear una herramienta que permitiera una mejor adecuación de los valores de la Red Oficial de Estaciones de Aforo (ROEA) a las diferentes herramientas que permiten valorar la alteración hidrológica de los regímenes hidrológicos, con especial atención a su aplicación a través del modelo IAHRIS. La aplicación web creada, denominada SEDAR (Servidor de Datos para Estudio de la Alteración Hidrológica), ayuda a solventar esta tarea, por un lado agilizando el trámite de selección de estaciones de aforo, fechas, tipo de serie de aforo, valoración preliminar de la calidad de los datos, clasificación referencia-alterado de los caudales, exportación de datos, y por otro proporcionando información completada tanto para datos mensuales y diarios, disponiendo de esta manera de un mayor volumen de datos en los formatos nativos de IAHRIS e IHA. De este modo, se dispone de una aplicación de fácil acceso por el usuario y con gran valor para la realización de estudios de alteración hidrológica, propuestas de régimen de caudal ambiental y proyectos de restauración fluvial; además constituye una aplicación base para la incorporación de nuevas funcionalidades de mayor alcance ligadas a la obtención de datos en régimen natural o de referencia.
Resumo:
En el presente trabajo fin de máster se ha concebido, diseñado e utilizado una interfaz háptica, adecuada para ser utilizada como dispositivo de sustitución sensorial, la cual hemos llamado retina táctil. Por cuanto trata de proporcionar información propia del sentido de la vista a través del sentido del tacto. Durante este trabajo, que fue desarrollado en el grupo de robótica y cibernética CAR UPM-CSIC, se ha trabajado en estrecha colaboración con el departamento de la facultad de psicología de la universidad autónoma de Madrid, los cuales han definido las bases de la información de alto orden, como podrían ser, gradientes de intensidades de vibración, mediante las cuales el individuo llega a tener una mejor comprensión del ambiente. El proyecto maneja teorías psicológicas recientes, como las teorías ecológicas y dinámicas que entienden que la percepción se basa en variables informacionales de alto orden. Ejemplos de tales variables son el flujo óptico, gradientes de movimiento, gradientes de intensidades, cambios en gradientes, etc. Sorprendentemente, nuestra percepción visual es mucho más sensible a variables de alto orden que a variables de bajo orden, lo cual descarta que variables de alto orden se infieran o calculen en base a variables de bajo orden. La hipótesis que maneja la teoría ecológica es que las variables de alto orden se detectan como unidades básicas, sin descomponerlas en variables de bajo orden. Imaginemos el caso de un objeto acercándose, intuitivamente pensaríamos que calculamos la distancia y la velocidad del objeto para determinar el momento en el cual este nos impactaría, ¿pero es este realmente el modo en el que actúa nuestro cerebro?, ¿no seremos capaces en determinar directamente el tiempo de contacto como una variable de alto orden presente en el entorno?, por ejemplo, determinar directamente la relación entre el tamaño del objeto y la tasa de crecimiento. También cabe preguntarse si todas estas suposiciones son válidas para estimulaciónes a través de los receptores táctiles en la piel. El dispositivo desarrollado está conformado por 13 módulos cada uno de los cuales maneja 6 tactores o vibradores, para hacer un total de 78 vibradores (ampliables al agregar módulos adicionales), cada uno de los tactores tiene 8mm de diámetro y proporciona información del flujo óptico asociado al entorno que rodea al usuario a través de información táctil, él mismo puede ser utilizado inalámbricamente a pesar de que el procesamiento de los datos se este realizando en una computadora de mesa, lo cual es muy útil al trabajar con ambientes virtuales. También se presenta la integración de la interfaz con el sistema operativo de robots ROS para usarlo en conjunto con las librerías que han sido desarrolladas para el control de la cámara Microsoft Kinect con la cual se puede obtener una matriz de distancias de puntos en el espacio, permitiendo de esta manera utilizar la interfaz en ambientes reales. Finalmente se realizaron experimentos para comprobar hipótesis sobre la variable de percepción del tiempo de contacto además de verificar el correcto funcionamiento del dispositivo de sustitución sensorial tanto en ambientes reales como en ambientes simulados así como comprobar hipótesis sobre la validéz del uso del flujo vibrotáctil para la determinación del tiempo de contacto.
Resumo:
Los modelos de termomecánica glaciar están definidos mediante sistemas de ecuaciones en derivadas parciales que establecen los principios básicos de conservación de masa, momento lineal y energía, acompañados por una ley constitutiva que define la relación entre las tensiones a las que está sometido el hielo glaciar y las deformaciones resultantes de las mismas. La resolución de estas ecuaciones requiere la definición precisa del dominio (la geometría del glaciar, obtenido a partir de medidas topográficas y de georradar), así como contar con un conjunto de condiciones de contorno, que se obtienen a partir de medidas de campo de las variables implicadas y que constituyen un conjunto de datos geoespaciales. El objetivo fundamental de esta tesis es desarrollar una serie de herramientas que nos permitan definir con precisión la geometría del glaciar y disponer de un conjunto adecuado de valores de las variables a utilizar como condiciones de contorno del problema. Para ello, en esta tesis se aborda la recopilación, la integración y el estudio de los datos geoespaciales existentes para la Península Hurd, en la Isla Livingston (Antártida), generados desde el año 1957 hasta la actualidad, en un sistema de información geográfica. Del correcto tratamiento y procesamiento de estos datos se obtienen otra serie de elementos que nos permiten realizar la simulación numérica del régimen termomecánico presente de los glaciares de Península Hurd, así como su evolución futura. Con este objetivo se desarrolla en primer lugar un inventario completo de datos geoespaciales y se realiza un procesado de los datos capturados en campo, para establecer un sistema de referencia común a todos ellos. Se unifican además todos los datos bajo un mismo formato estándar de almacenamiento e intercambio de información, generándose los metadatos correspondientes. Se desarrollan asimismo técnicas para la mejora de los procedimientos de captura y procesado de los datos, de forma que se minimicen los errores y se disponga de estimaciones fiables de los mismos. El hecho de que toda la información se integre en un sistema de información geográfica (una vez producida la normalización e inventariado de la misma) permite su consulta rápida y ágil por terceros. Además, hace posible efectuar sobre ella una serie de operaciones conducentes a la obtención de nuevas capas de información. El análisis de estos nuevos datos permite explicar el comportamiento pasado de los glaciares objeto de estudio y proporciona elementos esenciales para la simulación de su comportamiento futuro. ABSTRACT Glacier thermo-mechanical models are defined by systems of partial differential equations stating the basic principles of conservation of mass, momentum and energy, accompanied by a constitutive principle that defines the relationship between the stresses acting on the ice and the resulting deformations. The solution of these equations requires an accurate definition of the model domain (the geometry of the glacier, obtained from topographical and ground penetrating radar measurements), as well as a set of boundary conditions, which are obtained from measurements of the variables involved and define a set of geospatial data. The main objective of this thesis is to develop tools able to provide an accurate definition of the glacier geometry and getting a proper set of values for the variables to be used as boundary conditions of our problem. With the above aim, this thesis focuses on the collection, compilation and study of the geospatial data existing for the Hurd Peninsula on Livingston Island, Antarctica, generated since 1957 to present, into a geographic information system. The correct handling and processing of these data results on a new collection of elements that allow us to numerically model the present state and the future evolution of Hurd Peninsula glaciers. First, a complete inventory of geospatial data is developed and the captured data are processed, with the aim of establishing a reference system common to all collections of data. All data are stored under a common standard format, and the corresponding metadata are generated to facilitate the information exchange. We also develop techniques for the improvement of the procedures used for capturing and processing the data, such that the errors are minimized and better estimated. All information is integrated into a geographic information system (once produced the standardization and inventory of it). This allows easy and fast viewing and consulting of the data by third parties. Also, it is possible to carry out a series of operations leading to the production of new layers of information. The analysis of these new data allows to explain past glacier behavior, and provides essential elements for explaining its future evolution.
Resumo:
Durante los años 2008, 2009 y 2010 se han llevado a cabo, a nivel estatal, diversas actuaciones encaminadas a evaluar la alteración ecohidrológica de las masas de agua. Esta evaluación se llevó a cabo con la metodología y aplicación IAHRIS. Durante el desarrollo de estos trabajos se constató la necesidad de crear una herramienta que permitiera una mejor adecuación de los valores de la Red Oficial de Estaciones de Aforo (ROEA) a las diferentes herramientas que permiten valorar la alteración hidrológica de los regímenes hidrológicos, con especial atención a su aplicación a través del modelo IAHRIS. La aplicación web creada, denominada SEDAR (Servidor de Datos para Estudio de la Alteración Hidrológica), ayuda a solventar esta tarea, por un lado agilizando el trámite de selección de estaciones de aforo, fechas, tipo de serie de aforo, valoración preliminar de la calidad de los datos, clasificación referencia-alterado de los caudales, exportación de datos, y por otro proporcionando información completada tanto para datos mensuales y diarios, disponiendo de esta manera de un mayor volumen de datos en los formatos nativos de IAHRIS e IRA. De este modo, se dispone de una aplicación de fácil acceso por el usuario y con gran valor para la realización de estudios de alteración hidrológica, propuestas de régimen de caudal ambiental y proyectos de restauración fluvial; además constituye una aplicación base para la incorporación de nuevas funcionalidades de mayor alcance ligadas a la obtención de datos en régimen natural o de referencia.
Resumo:
Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.
Resumo:
En este caso se presentan las siguientes situaciones : La empresa cuenta con una buena posición e imagen en el negocio de los muebles. Un mercado altamente competitivo. Automatización de Oficinas S.A. posee un producto con altos estándares de calidad. La empresa han presentado una disminución en los márgenes rentabilidad manejados. DESCRIPCION : El caso muestra la situación de la empresa Automatización de Oficinas S.A., una empresa de gran trayectoria nacional, orientada a la comercialización de muebles y equipos para oficina. A principios de la década pasada comenzó a comercializar microcomputadoras y elementos de conectividad de redes, beneficios de importación que le otorgaba ser exportador de muebles. En el momento en que se abren las importaciones, más de doscientas empresas entran a competir en el mercado de los microcomputadores, llegando incluso a manejar márgenes de hasta el 10 por ciento.
Resumo:
La evaluación de las propuestas de dos proveedores CardioExpress y AngioLáser. La evaluación se hace en base al análisis de costos que mas beneficie a los usuarios del servicio. DESCRIPCION: El presente caso narra las vivencias del Doctor Funes, encargado de gerenciar los Servicios de Salud de una entidad asociada al régimen de Seguridad Social en Salud con sede en la ciudad de Santiago de Cali, y con jurisdicción sobre ocho localidades del suroccidente del país. Motivo del caso lo constituye particularmente las necesidades de contar con unas herramientas analíticas que le permitan al doctor Funes tomar decisiones de contratación de proveedores con base a evaluaciones económicas de diferentes alternativas de tratamiento para grupos específicos de pacientes, pertenecientes a la población a cargo de profesionales adscritos a la entidad. En la actualidad se requiere contar con enfoques de análisis económicos debidamente contextualizados a salud, y los cuales sean apropiados por los profesionales involucrados en las decisiones clínicas correspondientes, por lo que este caso busca sembrar saludables inquietudes al respecto. OBJETIVO DEL CASO: Describir el desarrollo de lo sucedido a un Gerente de Salud durante el proceso vivido del aprendizaje y aplicación de lo básico en Economía de la Salud. ESPECÍFICOS :1. Promover el entendimiento de los aspectos más relevantes relacionados con el aprendizaje y aplicación de las evaluaciones económicas en salud.2. Brindar al lector un marco general de herramientas analíticas disponibles para utilizar en estudios económicos (análisis costo-beneficio y análisis costo-efectividad).3. Describir algunas aproximaciones de evaluaciones económicas de salud a programas y/o intervenciones, realizadas por el Gerente de Salud.
Resumo:
Una mañana del 8 de octubre de 1996 se encontraba el grupo de gerentes de «Quesos Andino S.A.» evaluando los resultados de la situación del mercado, entregados por Nielsen. El señor Robert Douglas, Presidente de la Compañía, cuestiona a la Gerentede Mercadeo, señora Stella García, sobre el comportamiento dela participación de mercado en el canal tradicional, con respecto a la competencia. Inmediatamente el señor Darío Espinosa,Gerente Nacional de Ventas, toma la palabra: «Es muy importan-te que usted sepa que la competencia ha incrementado su cobertura de distribución hacia el canal tradicional, mientras que la Compañía continúa con problemas en la calidad de distribución y con productos muy enfocados hacia el canal de autoservicios".
Resumo:
El caso plantea la reactivación de un proyecto que se presentó en el año 1995 como alternativa para el desarrollo del Centro del Valle y mejora de la Eficiencia en el manejo del Comercio Exterior de la Cuenca Pacífica. El Proyecto se revivió a raíz de la necesidad de la Compañía patrocinadora de mejorar sus Flujos de Caja proyectados y la reciente autorización para su funcionamiento. El proyecto es el popularmente denominado "Puerto Seco" de la ciudad de Guadalajara de Buga, internamente denominado Centro Internacional de Apoyo Logístico al Comercio Exterior CIALCEX. Los estudios iniciales estaban encaminados a que el proyecto fuera manejado por el Municipio de Buga, sin embargo posteriormente se vio la necesidad de buscar que pasara a manos de la Empresa Privada.
Resumo:
En este caso se presentan las siguientes situaciones. : Al analizar los programas de Promoción de la Salud y Prevención de la enfermedad de ASOMED E.P.S. se encontró que éstos no respondían a las necesidades de la población. Dichos programas no estaban diseñados a partir de un estudio epidemiológico adecuado. Por tanto, se proceso la información disponible y se procedió a diseñar un Programa de Promoción de la Salud y Prevención de la Enfermedad que respondiera a las características del estudio adelantado. OBJETIVOS DEL CASO: -Mostrar la importancia de un adecuado diseño de proyectos. -Puntualizar la necesidad de aplicar las herramientas administrativas y gerenciales adecuadas para el correcto funcionamiento de una empresa de salud. -Demostrar que el conocimiento de la Ley 100 / 1993, permite un adecuado desempeño directivo en las organizaciones de la salud.
Resumo:
Caso concreto de análisis de una inversión comparativa entre portafolios denominados en pesos y/o en dólares, con diversas alternativas de inversión. Evaluación de un portafolio optimo a un nivel dado de riesgo. Comparativo de la tasa promedio de interés DTF, con una inversión que se quiere realizar a cinco (5) años, teniendo en cuenta aspectos importantes al momento de tomar decisiones de inversión, con las siguientes alternativas de que ofrece el mercado colombiano: - Certificados de Deposito a termino, CDT. - Portafolio de un Fondo de Pensión Voluntaria en títulos de renta fija en pesos. - Portafolio de un Fondo Común Ordinario. - Portafolio de un Fondo de Valores. - Portafolio de un Fondo de Pensión Voluntaria en títulos de renta fija en dólares. Variables que determinan la rentabilidad de la inversión: - Comportamiento de la devaluación en Colombia. - Rentabilidad histórica de los bonos del tesoro americano a 30 años. -Comportamiento de los principales indicadores del mercado americano de renta fija y renta variable (Nasdaq, SyP 500, Dow Jones,etc,.) -Proyecciones de variables macroeconómicas que inciden en la valoración de inversiones.
Resumo:
Refrescante S.A. es una empresa multinacional con productos en más de ochenta países y aproximadamente 160 plantas de producción. En algunos países de Europa como España, Francia y Portugal y de Suramérica como Argentina y Chile, es líder del mercado de las bebidas no alcohólicas. El gran reconocimiento con que cuenta su marca mundialmente le ha permitido lanzar al mercado diferentes productos, dentro de la categoría de las gaseosas, aguas e isotónicos con notables crecimientos departicipación, retorno de la inversión y estabilidad en cada mercado donde son ofrecidos. La compañía tiene su sede principal en Barcelona-España, donde se fundó hace casi 50 años. Desde allí ejerce control sobre las demás plantasestablecidas en el resto del mundo. Sin embargo, cada país tiene autonomía para el diseño de estrategias de mercadeo, distribución y logística adaptándose a las necesidades locales, para lo cual se asignan los recursos financieros necesarios de acuerdo con el potencial de cada mercado.
Resumo:
En agosto de 2002, la alta gerencia del Grupo Editorial Lama, una de las más grandes empresas editoriales en América Latina, venía muy preocupada por el bajo crecimiento de sus ventas en Colombia en los dos últimos años, en contraposición a los extraordinarios resultados de crecimiento y expansión que se estaban logrando en los mercados internacionales. Editorial Lama tenía ya más de cuarenta años en el mercado colombiano y había conquistado una posición de liderazgo en sus dos divisiones principales (Textos Escolares y Libros de Interés General), pero la División de Libros de Interés General (DIG) no había logrado las metas de crecimiento propuestas para el mercado colombiano en los dos últimos años, a pesar de haber aumentado la producción de títulos nuevos en más de un 38 porciento cada año, entre los que podían contarse varios de autores muy reconocidos.
Resumo:
El Ingenio Providencia S.A. está ubicado a 40 kilómetros de la ciudad de Cali, Colombia, en la ruta hacia el norte del epartamento del Valle del Cauca. Hacia 1925 el señor Modesto Cabal tuvo la visión de establecer en la región otra gran empresa. La idea era montar un centro azucarero, diseñado para producir azúcar centrifugada.Esta idea se materializó el 12 de abril de 1926, cuando se fundó la Central Azucarera del Valle S.A. En 1954, y habiéndose establecido como uno de los ingenios de mayor pujanza en elpaís, los dueños decidieron adoptar otra razón social, cambiando el nombre por el de Ingenio Providencia S.A.El Ingenio Providencia produce azúcar para mercado local y para el mercado de exportación. Dentro de este último se clasifican dos tipos de azúcar que son el azúcar crudo a granel y el azúcar blanco, que a su vez se clasifica en azúcar blanco Tipo A, Tipo B y Tipo C, diferenciándose entre sí por el tamaño del grano y por su blancura.