655 resultados para CÓDIGO ORGÁNICO MONETARIO Y FINANCIERO
Resumo:
Este Trabajo de Fin de Grado (TFG) tiene el objetivo de aportar un sistema de enseñanza innovador, un sistema de enseñanza mediante el cual se consiga involucrar a los alumnos en tareas y prácticas en las que se adquieran conocimientos a la vez que se siente un ambiente de juego, es decir, que se consiga aprender de forma divertida. Está destinado al sistema educativo de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid, en concreto a las asignaturas relacionadas con los Procesadores de Lenguajes. La aplicación desarrollada en este trabajo está destinada tanto a los profesores de las asignaturas de Procesadores de Lenguajes como a los alumnos que tengan alguna relación con esas asignaturas, consiguiendo mayor interacción y diversión a la hora de realizar la tareas y prácticas de las asignaturas. Para los dos tipos de usuarios descritos anteriormente, la aplicación está configurada para que puedan identificarse mediante sus credenciales, comprobándose si los datos introducidos son correctos, y así poder acceder al sistema. Dependiendo de qué tipo de usuario se identifique, tendrá unas opciones u otras dentro del sistema. Los profesores podrán dar de alta, ver, modificar o dar de baja las configuraciones para los analizadores de los lenguajes correspondientes a las diferentes asignaturas que están configurados previamente en el sistema. Además, los profesores pueden dar de alta, ver, modificar o dar de baja los fragmentos de código que formarán los ficheros correspondientes a las plantillas de pruebas del analizador léxico que se les ofrece a los alumnos para realizar comprobaciones de las prácticas. Mediante la aplicación podrán establecer diferentes características y propiedades de los fragmentos que incorporen al sistema. Por otra parte, los alumnos podrán realizar la configuración del lenguaje, definido por los profesores, para la parte del analizador léxico de las prácticas. Esta configuración será guardada para el grupo al que corresponde el alumno, pudiendo realizar modificaciones cualquier miembro del grupo. De esta manera, se podrán posteriormente establecer las relaciones necesarias entre los elementos del lenguaje según la configuración de los profesores y los elementos referentes a las prácticas de los alumnos.Además, los alumnos podrán realizar comprobaciones de la parte léxica de sus prácticas mediante los ficheros que se generan por el sistema en función de sus opciones de práctica y los fragmentos añadidos por los profesores. De esta manera, se informará a los alumnos del éxito de las pruebas o bien de los fallos ocasionados con sus resultados, bien por el formato del archivo subido como resultado de la prueba o bien por el contenido incorrecto de este mismo. Todas las funciones que ofrece esta aplicación son completamente on-line y tendrán una interfaz llamativa y divertida, además de caracterizarse por su facilidad de uso y su comodidad. En el trabajo realizado para este proyecto se cumplen tanto las Pautas de Accesibilidad para Contenidos Web (WCAG 2.0), así como las propiedades de un código HTML 5 y CSS 3 de manera correcta, para así conseguir que los usuarios utilicen una aplicación fácil, cómoda y atractiva.---ABSTRACT---This Final Year Project (TFG) aims to contribute the educational system of the School of Computer Engineering at the Polytechnic University of Madrid, especially in subjects related with Language Processors. This project is an interactive learning system whose goal is to learn in an amusing environment. To realize this target, the system involves students, using environments of games in tasks and practices. The application developed in this project is designed for both professors of the subjects of Language Processors and students who have some relation to these subjects. This perspective achieve more interaction and a funny environment during the subject‘s tasks. The application is configured in order to the users can be identified by their credentials, checking whether the identification data are correct to have access to the system. According on what type of user is identified, they will have different options within the system. Professors will be able to register, modify or delete settings for the scanner of languages for all the subjects preconfigured in the system. Additionally, professors can register, show, modify or remove the code of the templates from scanner tests that are offered to students for testing the practical exercises. The professors may provide also different characteristics and properties of fragments incorporated in the system. Moreover, students can make the configuration of languages, getting in the systems by the administrators, for the scanner module of their practical exercises. This configuration will be saved for the group of the student. This model can also be changed by any group member. The system permits also establish later the relationships between the elements of language fixes by professors and elements developed by the students. Students could check the lexical part of their practical exercises through files that are created according to their practical options and the fragments added by professors. Thus students will be informed of success or failure in the uploaded files format and in the content of them. All functions provide by this application are completely on-line and will have a striking and funny interface, also characterized by its ease of use and comfort.The work reaches both the Web Content Accessibility Guidelines (WCAG 2.0), and the properties of an HTML 5 and CSS 3 code correctly, in order to get the users to get an easy, convenient application and attractive.
Resumo:
Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.
Resumo:
En el estado de Veracruz, al sur de México, se ubican empresas dedicadas a la obtención de etanol a partir de melaza de azúcar de caña. Las más pequeñas, tienen una producción promedio de 20,000 L de alcohol/día. Los efluentes de la producción de etanol incluyen agua de enfriamiento de condensadores, agua del lavado de tanques de fermentación y vinazas, estas últimas son los efluentes más contaminantes en las destilerías, por su concentración de material orgánico biodegradable y no biodegradable. Las vinazas se generan en grandes volúmenes, produciéndose de 12 a 15 litros de vinazas por cada litro de alcohol destilado. Estos efluentes se caracterizan por tener altas temperaturas, pH ácido y una elevada concentración de DQO así como de sólidos totales. La determinación de la biodegradabilidad anaerobia de un agua residual, permite estimar la fracción de DQO que puede ser transformada potencialmente en metano y la DQO recalcitrante que queda en el efluente. Para el desarrollo de una prueba de biodegradabilidad, es importante considerar diversos factores relacionados con la composición del agua a tratar, composición de los lodos y las condiciones bajo las cuales se lleva a cabo la prueba. La digestión anaerobia de aguas residuales industriales es comúnmente usada en todo el mundo, ofrece significativas ventajas para el tratamiento de efluentes altamente cargados. Los sistemas anaerobios de tratamiento de aguas residuales industriales incluyen tecnologías con biopelículas, estos sistemas de tratamiento anaerobio con biopelícula son una tecnología bien establecida para el tratamiento de efluentes industriales. El Reactor de Lecho Fluidizado Inverso Anaerobio (LFI) ha sido diseñado para el tratamiento de aguas residuales de alta carga, teniendo como ventajas el empleo de un soporte que proporciona una gran superficie y un bajo requerimiento de energía para la fluidización del lecho. En el presente trabajo, se lleva a cabo el análisis de un proceso de producción de etanol, identificando a los efluentes que se generan en el mismo. Se encuentra que el efluente final está compuesto principalmente por las vinazas provenientes del proceso de destilación. En la caracterización de las vinazas provenientes del proceso de producción de etanol a partir de melaza de azúcar de caña, se encontraron valores promedio de DQO de 193.35 gDQO/L, para los sólidos totales 109.78 gST/L y pH de 4.64. Así mismo, en esta investigación se llevó a cabo una prueba de biodegradabilidad anaerobia, aplicada a la vinaza proveniente de la producción de etanol. En la caracterización de los lodos empleados en el ensayo se obtiene una Actividad Metanogénica Especifica de 0.14 g DQO/gSSV.d. El porcentaje de remoción de DQO de la vinaza fue de 62.7%, obteniéndose una k igual a 0.031 h-1 y una taza de consumo de sustrato de 1.26 gDQO/d. El rendimiento de metano fue de 0.19 LCH4/g DQOremovida y el porcentaje de biodegradabilidad de 54.1%. El presente trabajo también evalúa el desempeño de un LFI, empleando Extendospher® como soporte y tratando efluentes provenientes de la producción de etanol. El reactor se arrancó en batch y posteriormente se operó en continuo a diferentes Cargas Orgánicas Volumétricas de 0.5, 1.0, 3.3, 6.8 y 10.4 g DQO/L.d. Además, se evaluaron diferentes Tiempos de Residencia Hidráulica de 10, 5 y 1 días. El sistema alcanzó las siguientes eficiencias promedio de remoción de DQO: 81% para la operación en batch; 58, 67, 59 y 50 % para las cargas de 0.5, 1.0, 3.3, 6.8 g DQO/L.d respectivamente. Para la carga de 10.4 g DQO/L.d, la eficiencia promedio de remoción de DQO fue 38%, en esta condición el reactor presentó inestabilidad y disminución del rendimiento de metano. La generación de metano inició hasta los 110 días de operación del reactor a una carga de 1.0 g DQO/L.d. El sistema alcanzó un rendimiento de metano desde 0.15 hasta 0.34 LCH4/g DQO. Durante la operación del reactor a una carga constante de 6.4 g DQO/L.d, y un TRH de 1 día, se alcanzó una eficiencia promedio de remoción de DQO de 52%. In the state of Veracruz, to the south of Mexico, there are located companies dedicated to the production of ethanol from molasses of cane sugar. The smallest, have a average production of 20,000 L ethanol/day. The effluent of production of ethanol include water of condensers, water originated from the cleanliness of tanks of fermentation and vinasses, the above mentioned are more effluent pollutants in the distilleries, for the poor organic matter degradability. The vinasses are generated in high volumes, producing from 12 to 15 L of vinasses per every liter of distilled ethanol. These effluent are characterized by its high temperature, pH acid and a high concentration of DQO as well as high concentration of TS. The determination of the anaerobic degradability of a waste water, it allows to estimate the fraction of DQO that can be transformed potentially into methane and the recalcitrant DQO that stays in the effluent. For the development of degradability test, it is important to consider factors related to the composition of the water to be treated, composition of the sludge and the conditions under which the test is carried out. The anaerobic digestion of industrial wastes water is used commonly in the whole world, it offers significant advantages for the treatment of effluent highly loaded. The anaerobic treatment of industrial wastes water include technologies with biofilms, this anaerobic treatment whit biofilms systems, is a well-established technology for treatment of industrial effluents. The Anaerobic Inverse Fluidized Bed Reactor (IFBR) has been developed to provide biological treatment of high strength organic wastewater for their large specific surface and their low energy requirements for fluidization. In this work, there is carried out the analysis of a process of production of ethanol, identifying the effluent ones that are generated in the process. One determined that the effluent end is composed principally by the vinasses originated from the process of distillation. In the characterization of the vinasses originated from the process of production of ethanol from cane sugar molasses, there were average values of DQO of 193.35 gDQO/L, average values of solid of 109.78 gST/L and pH of 4.64. In this investigation there was carried out a anaerobic degradability test of the vinasses generated in the production of ethanol. In the characterization of the sludge used in the essay, the specific methanogenic activity (SMA) was 0.14 gDQO/gSSV.d. The average removal of DQO of the vinasses was 62.7 %, k equal to 0.031 h-1 was obtained one and a rate of removal substrate of 1.26 gDQO/d. The methane yield was 0.19 LCH4/gDQO removed and the anaerobic biodegradability was a 54.1 %. This study describes the performance of IFBR with Extendospher®, for the treatment of vinasses. The start-up was made in batch, increasing gradually the Organic Load Rate (OLR): 0.5, 1.0, 3.3, 6.8 and 10.4 g COD/L.d. Different Hydraulic Retention Times (HRT) were evaluated: 10, 5 and 1 days. During the operation in batch, the COD removal obtained was of 81 %, and for OLR of 0.5, 1.0, 3.3, 6.8 g COD/L.d the removal obtained was 58, 67, 59 and 50 % respectively. For a maximum OLR of 10.4 g COD/L.d, the COD removal was 38 %, and the system presented instability and decrease of the yield methane. The methane production initiated after 110 days of the start-up of the IFBR, to organic load rate of 1.0 g COD/L.d. The system reached values in the methane yield from 0.15 up to 0.34 LCH4/g CODremoved, for the different organic load rates. During the operation to a constant OLR of 6.4 g COD/L.d, and a HRT of 1 day, the Anaerobic Inverse Fluidized Bed Reactor reached a maximum efficiency of removal of 52 %.
Resumo:
Los jueces online están cobrando cada día más importancia, especialmente en el ámbito de la enseñanza. Su funciona-miento es simple, un juez/profesor sube un problema de programación con un enunciado y unos casos de prueba (entradas y salidas esperadas) al juez online. El alumno/concursante deberá subir el código que considera como solución al problema. Si el código del alumno devuelve las mismas salidas que las que se encuentran en los casos de prueba para las correspondientes entradas en los test-cases dada las mismas entradas, el código se considera correcto. En la Facultad de Informática de la Universidad Complutense de Madrid ha aparecido un juez virtual que cada vez está siendo más usado por los docentes como complemento a la hora de evaluar. Este juez online es DomJudge. DomJudge es un juez online desarrollado en la universidad de Utrecht con el fin de ser un juez virtual de concursos de programación. Su código es libre y se puede descargar y modificar, lo que lo hace ideal si se quiere adaptar su funcionamiento. Es bien sabido que generar casos de prueba de calidad es una tarea muy compleja. Existen diversas técnicas que ayudan a la generación automática de tests. Por ejemplo, la ejecución simbólica permite generar tests garantizando que todos los caminos de ejecución del programa son ejercitados hasta una cierta profundidad. El objetivo de este proyecto es hacer uso de estas técnicas de testing para generar casos de prueba de forma automática. Para que la autoevaluación realizada por estos jueces sea efectiva, los profesores deben proporcionar casos de prueba de calidad que son ejecutados automáticamente cuando los alumnos suben sus soluciones. Escribir estos casos de prueba resulta costoso y complejo, y es en este punto, donde el uso de jPET podría resultar muy útil. Los casos de prueba generados por jPET podrían servir como punto de partida a la hora de generar un conjunto de casos de prueba de calidad. Un aspecto muy interesante en este sentido, es que no es necesario que los programas de los alumnos uti licen el lenguaje Java. Lo único que sería necesario es que el profesor proporcione una solución escrita en Java. A partir de esta se podrían generar los casos de prueba iniciales. Si se diese el caso de que las soluciones de los alumnos viniesen escritas en Java, se podrían plantear enfoques más interesantes en los cuales los tests se forman a partir de ambas soluciones. La del alumno, para generarlos datos de entrada, y la del profesor, para chequear que las salidas para esas entradas son las correctas. Por eso hemos llevado a cabo no solo una traducción automática del xml generado por JPET en ficheros in y out. Sino una total integración con el sistema DomJudge para poder generar los casos de prueba sin intermediarios. Gracias a esta integración podemos facilitar el trabajo de los profesores a la hora de crear problemas en jueces online y conseguimos una generación automática de tests en DomJudge.
Resumo:
La crisis financiera y económica que estalló en Europa en 2008 ha sido un auténtico campo de pruebas para recurrir a todo tipo de recursos expresivos, a la hora de explicar la compleja naturaleza de la coyuntura económica. De esta manera, lejos de ser un artificio de la ornamentación retórica, la metáfora adquiere un sentido simbólico que permite expresar conceptos de forma natural y a veces descontada. El objetivo de este estudio es analizar la utilización de las metáforas en la prensa económica española e italiana en el discurso sobre la crisis en Europa, a través de un análisis basado en corpus. Además, se intenta descubrir semejanzas y diferencias a la vez que se destacan aspectos originales en ambos idiomas. La hipótesis general, de acuerdo con investigaciones previas sobre las metáforas económicas, es que cabe esperar una frecuente utilización de las metáforas. La tésis está dividida en cuatro capítulos. En el primer capítulo se desglosan las principales teorías elaboradas acerca de la metáfora, desde un enfoque clásico hasta una visión cognitivista que se desarrolla a partir de la Teoría de la Metáfora Conceptual propuesta por Lakoff y Johnson (1980). El segundo capítulo se centra en la metáfora económica y los estudios basados en corpus sobre la metáfora, para comprender los diferentes dominios fuente utilizados en el discurso económico y financiero. En el tercer capítulo se proporciona toda información relativa al método de creación y a la metodología de análisis de los corpus, llevada a cabo a través de una minuciosa recolección de artículos de la prensa italiana y española en los diarios Il Sole 24 Ore y Expansión. Los artículos han sido analizados a través del programa informático AntConc. Finalmente, en el cuarto capítulo se presenta el análisis de las metáforas detectadas en los dos corpus periodísticos y los resultados obtenidos, en lo que respecta a semejanzas y diferencias en los dos idiomas. Por esta razón, se seleccionan cuatro dominios fuente: dos más frecuentes (medicina; naturaleza) y dos menos frecuentes (construcción; mecanismos). Además, se hace hincapié en algunos ejemplos del uso de metáforas muy utilizadas, o bien de casos novedosos o creativos en ambos idiomas, con miras a descubrir los principales dominios fuente y los contextos de uso en la cobertura de la crisis. Los resultados que surgen a raíz del análisis muestran una profunda difusión del dominio fuente de la medicina y de la naturaleza en ambos idiomas y una consiguiente creatividad metafórica. En general, el corpus italiano presenta una mayor creatividad metafórica y cadenas metafóricas 138 con respecto al corpus español, a raíz de los hapaxes detectados. Asimismo, el corpus español presenta más casos creativos en el dominio de la construcción con respecto al italiano. El análisis ha permitido confirmar de forma empírica la hipótesis de gran uniformidad en el uso de la metáfora en los distintos periódicos, aun considerando algunas diferencias entre los dos idiomas. Cabe reconocer que, debido al tamaño limitado de los corpus creados, dicho estudio representa un campo de pruebas ampliable y los resultados presentados abren una puerta a nuevas oportunidades de investigación en el discurso económico y financiero o incluso en la enseñanza de la economía.
Resumo:
Esta comunicación narra la historia de una derrota de la sociedad civil preocupada por su patrimonio cultural y sus paisajes históricos urbanos. Se trata de la trayectoria de la Plataforma Ciudadana ¡Túmbala! y del Manifiesto contra la Torre Pelli-Cajasol, organizaciones de asociaciones, colectivos, personas y profesionales de diferente perfil y procedencia que desde principios del año 2009 se oponen al rascacielos de 178 metros de altura que promueve Cajasol, ahora Caixabank, en el extremo sur de la Isla de la Cartuja de Sevilla, en la denominada Puerta Triana de acceso a la Exposición Universal de 1992. El edificio, en su fase final y a punto de inaugurarse, ha roto definitivamente el perfil histórico de Sevilla, imponiendo su presencia de forma hegemónica sobre la ciudad. El camino recorrido supone la lucha de la ciudadanía por participar de las decisiones que le afectan de forma directa, como pueden ser aquellas relativas a qué es y cómo se protege su patrimonio histórico y al simbolismo que contienen determinados espacios y paisajes urbanos, ya que conforman una parte del derecho a la ciudad de todos sus habitantes. Tal lucha, infructuosa habida cuenta del resultado, se detalla a lo largo del texto, que a su vez ilustra la brecha abierta entre las instituciones públicas en todas sus escalas y la sociedad civil, así como la dominación efectiva ejercida por el poder económico y financiero de la banca.
Resumo:
Desde su nacimiento hasta la caída de la dictadura de Primo de Rivera, el ferrocarril se perfiló como una industria doblemente creadora de riqueza, estimulando por un lado la ya existente e impulsando el desarrollo económico por otro. Ante sus peculiaridades técnicas, económicas y de mercado, los distintos gobiernos adoptaron soluciones intervencionistas de mayor o menor grado. Simultáneamente, en su primer desarrollo, se produjo el abandono del paradigma clásico basado en la libre competencia, lo que derivó en la conversión del ferrocarril en foco de la retórica anti-competencia y de la práctica intervencionista. En este trabajo realizamos un seguimiento del nacimiento y desarrollo del ferrocarril, centrado exclusivamente en la evolución político-económica del sector dentro de la propia evolución histórica, paralela a la vía nacionalista del capitalismo español, y en la descriptiva teórica y práctica del desarrollo del intervencionismo y las restricciones al libre mercado.
Resumo:
Objetivou-se compreender a possibilidade de o ecossistema domiciliar de pais portadores de morbidades cardiovasculares propiciar atitudes e comportamentos que corroborem para manifestações análogas na saúde dos filhos que convivem neste ambiente, e compreender como o cuidado de enfermagem/saúde com ações interativas de promoção de saúde domiciliar seja capaz de dissipar estas atitudes e comportamentos nos filhos. Para o conhecimento, a compreensão, interação do ecossistema domiciliar e o modo de viver dos filhos de pai/mãe cardiopata como um processo dinâmico e inter-relacional, foi utilizada a abordagem sistêmica de Ilya Prigogine, com enfoque nos princípios ecossistêmicos. O percurso metodológico se baseou na Teoria Fundamentada nos Dados, que, de maneira sistemática, interativa e criativa, possibilitou o desenvolvimento da teoria formal: Compreendendo possibilidades Interativas de orientações da Enfermagem/Saúde no Ecossistema domiciliar dos filhos de pais cardiopatas para mudanças de comportamentos e atitudes. Esta é uma teoria fidedigna e fundamentada nos dados da pesquisa, que culminou com o desenvolvimento de suas categorias. A coleta e análise dos dados foram realizadas conforme a preconização da teoria, de forma comparativa e constante, seguindo os passos: codificação inicial ou aberta, categorização e codificação teórica, sendo utilizada também a observação. Totalizou a amostra teórica onze filhos de pai/mãe cardiopatas, entrevistados no Brasil e em Portugal, onde, neste último, foi realizado um Intercâmbio de Doutorado com a finalidade de potencializar os conceitos e direcionar novas possibilidades aos fenômenos apresentados. Como processo de análise dos dados e agrupamento das categorias utilizou-se o modelo paradigmático desenvolvido por Glaser (1968) correspondente à família de códigos 6 Cs e de códigos interativos. A teoria formal emergiu a partir de dois fenômenos e suas categorias. O fenômeno, Conhecendo o ecossistema domiciliar de filhos de pai/mãe cardiopata na perspectiva das orientações da enfermagem/saúde, englobou as categorias: Demonstrando conhecimento sobre aspectos que possibilitam o infarto (condição causal); Associando a vivência da doença e orientações às modificações no modo de viver (condição estratégica); Relatando possibilidades de orientações para os filhos de pai/mãe cardiopata (condição de contingência); Reconhecendo a importância das orientações para o viver melhor (condição de consequência). Em relação ao fenômeno Conhecendo comportamentos e atitudes de filhos de pai/mãe cardiopata, as categorias elencadas foram: Descrevendo atitudes e comportamentos do(a) filho(a) antes da doença do(a) pai/mãe (condição causal); Relatando comportamentos e atitudes dos filhos pós-doença do(a) pai/mãe (condição estratégica); Reconhecendo a importância da mudança de comportamentos e atitudes para um viver saudável (condição de consequência). A teoria que emergiu por meio dos dados deste trabalho fundamenta a importância das ações de enfermagem/saúde para a promoção da saúde, confirma a tese proposta no projeto de pesquisa e permite concluir que a perspectiva ecossistêmica direciona para o conhecimento, a compreensão e discussão, evidentemente, mais amplos, dos contextos apresentados, pelas suas dinâmicas e interatividades.
Resumo:
El nuevo modelo de internacionalización de la economía colombiana, aplicado a partir del 7 de agosto de 1990, y el cual cumplió recientemente diez años de vigencia, ha generado grandes controversias sobre los beneficios y perjuicios que ha producido dicho proceso en el país. En el caso del departamento del Valle del Cauca, la aplicación de este modelo presenta en la mayoría de los renglones de la economía un impacto más desfavorable que favorable. Mal podríamos cuestionar la decisión de abrir la economía colombiana y vallecaucana a la economía mundial, sin antes asumir una posición crítica respecto a la forma de aplicación del modelo de internacionalización. El problema no fue la apertura en sí, sino la forma como se adoptó (el niño quedó en pañales y no se le enseñó a caminar). El presente informe económico del Valle estudia el comportamiento del producto interno bruto, la industria, los sectores agrícola y financiero, el desempleo, el tamaño del sector público, la participación del Valle y Antioquia en la economía nacional y el comercio exterior, en el período post-apertura 1990 - 1999. Este último año no se incluye en el análisis de algunos sectores ya que no existen cifras oficiales.
Resumo:
Se ha hecho en esta ponencia un estudio de los factores más importantes de financiamiento de la educación superior en Colombia. Después de dar un marco de referencia cuantitativo y financiero y de costos del sistema, se analizaron varios aspectos de eficiencia de recursos humanos; recursos físicos. espacio y tiempo; recursos materiales, rebaja de insumos; recursos económicos y fiscales; recursos académicos, uso de la tecnologia educativa y de la educación individualizada. luego se trató lo referente a aumento de ingresos por incrementos fiscales, recursos propios, de matrículas o tarifas y financiación. En este punto se presentó un modelo simple de simulación de crédito estudiantil generalizado, para demostrar su viabilidad económica
Resumo:
Las pequeñas Empresas de Artesanías de Concepción de Ataco se encuentran en la necesidad de contar con un Plan de Negocios que les permita incrementar la participación en el mercado de las artesanías. Con la realización del Proyecto se pretende incrementar la participación en el mercado de la empresa artesanal Diconte axul así como también incrementar las ventas a través de las estrategias y promociones de venta para lograr obtener mayores utilidades, establecer nuevos puntos de distribución para promover las ventas que contribuyan a mejorar el posicionamiento del producto en el mercado y Mejorar los procesos productivos con el fin de aumentar la producción y cubrir la demanda de artesanías. La investigación se realizó, tomando como caso ilustrativo la empresa “Diconte Axul”. Las unidades de análisis consideradas fueron las pequeñas empresas de Artesanías del Municipio de Concepción de Ataco, los turistas extranjeros y nacionales y las empresas Productoras y Distribuidoras de Artesanías en las Ciudades de Santa Ana, San Salvador y San Miguel para establecer posibles puntos de ventas. El método que se utilizó en esta investigación es el método científico, él tipo de investigación es el correlacional ya que este estudio tiene como propósito medir el grado de relación que se tiene entre dos variables en un contexto particular. Los factores importantes que se consideró es el aspecto económico y financiero, en el que se estableció que es rentable producir y comercializar Artesanías, por lo que se recomienda darle continuidad a este proyecto En el desarrollo de esta investigación se concluyó que las empresas necesitan invertir en publicidad, realizar alianzas con otras empresas para poder colocar sus productos, así como también la creación de nuevos productos que contribuyan mantenerse en los gustos y preferencias del cliente. Realizar una redistribución en las instalaciones para darle una mejor vistosidad al lugar. Este proyecto será de será de gran utilidad para Diconte Axul ya que actualmente no cuentan con las herramientas necesarias para dar a conocer el producto y con esto lograr el desarrollo económico sostenible de la pequeña empresa de artesanías.
Resumo:
El Salvador es un país que ha sufrido a lo largo de la historia fuertes desastres naturales, como los terremotos ocurridos el 13 de Enero y 13 de Febrero de 2001 son una muestra ello. En todo el país esos terremotos provocaron estragos en familias de escasos recursos económicos, cuya única actividad era el cultivo y comercialización de productos agrícolas, siendo necesario que organismos tanto nacionales como internacionales intervinieran para brindar ayuda humanitaria. Gracias a que existen instituciones dedicadas a beneficiar a la población salvadoreña como la Asociación El Bálsamo, Fondo de Inversión Social para el Desarrollo Local (FISDL) y Programa de Apoyo a la Reconstrucción de El Salvador (PRAORES), el municipio de San Vicente fue uno de los primeros beneficiados tanto en el fortalecimiento de iniciativas empresariales como en el desarrollo comunal. En el municipio se construyeron más de 200 viviendas, entre las cuales 51 pertenecen a la Comunidad Nuevo Asentamiento Organizado (NAO) El Bálsamo. Dichos asentamientos son concebidos por el FISDL como un modelo de desarrollo económico social, ya que cuentan con las 51 viviendas, un centro productivo (local para la Panadería), guardería, mini-cancha, etc. El FISDL contribuye a prever los recursos económicos, asistencia técnica, la cual consiste en proveerle a la comunidad una nueva actividad productiva, mediante la capacitación sobre la elaboración de pan dulce y francés a las personas de la Panadería, lo que constituirá su principal fuente de ingresos económicos. Las iniciativas empresariales demuestran que al combinar voluntad, recursos financieros, coordinación y una excelente organización, se generan mecanismos para la reactivación de sectores específicos en la sociedad. La búsqueda de formas viables para apoyar dichas iniciativas en la Comunidad, es la principal motivación para diseñar un Plan de Negocio, el cual proporciona los planes de apoyo para la investigación, desarrollo, compras, fabricación, personal y finanzas. Por tal razón se han integrado cuatro planes (Plan de Mercadeo, Administrativo, Operativo y Financiero) que servirán como herramienta para determinar el posicionamiento, rentabilidad y las ventas de dicha Panadería.
Resumo:
Resumen La intensificación de la crisis a nivel global, luego de la bancarrota de Lehman Brothers en septiembre del 2008, ha provocado que el actual entorno económico y financiero sea complicado para la economía mundial, el sector financiero a nivel global y para los bancos centrales. La actual crisis deriva de muchas causas; no obstante las principales son tres: primero, aspectos macroeconómicos; segundo, la inadecuada regulación de los entes encargados, y tercero, los reguladores estimularon el rápido crecimiento de los derivados en el mercado OTC. Abstract The amplification of the global financial crisis, following the bankruptcy of Lehman Brothers in September 2008, has made the present economic and financial environment a not easy time for the world economy, the global financial system and for central banks. There are many causes from the recent financial crisis. Main could be three. First, there were macroeconomic components. Second, the inadequate oversight/regulation provided by financial market regulators. And third, federal regulators have actively encouraged the rapid growth of over-the-counter (OTC) derivatives and securities by all types of financial institutions.
Resumo:
Los fundamentos del comercio internacional se establecen dentro del seguimiento de una cultura de negociación entre empresas que buscan un beneficio a través de acuerdos y convenios en los cuales de manera integral sus contrapartes también perciban beneficios equiparables en el proceso. “La estrategia, es el plan de juego para llegar a su cumplimiento. Para lograr sus metas cada negocio debe diseñar una estrategia” Una alianza estratégica se puede definir como, una sociedad entre dos o más empresas que se relacionan para competir en un mercado determinado a través del intercambio de tecnologías, habilidades, productos y servicios basado en la fortaleza de los mismos. En el caso de la industria insipiente de los productores de vinos frutales en El Salvador, posee muchos obstáculos en su crecimiento como la falta de información que posee el mercado potencial sobre ellos, su gama de productos, marca, procesos productivos, calidad de los productos, abonando el factor de una cultura de consumo de cerveza, en la realidad salvadoreña, pero que con el apoyo adecuado se le puede dotar de herramientas de negociación que le incrementen sus capacidades comerciales y de competitividad en el mercado, tanto nacional, como internacional, apoyándose en el crecimiento de la demanda de vinos en las latitudes salvadoreñas. Los conceptos de Hostales y Vinos, están íntimamente ligados, inclusive desde los inicios del primero. Los especímenes más arcaicos de lo que ahora en día se conoce o se le denomina como Hostales y Hoteles, se remontan a muchas antiguas culturas, tales como la romana, la griega, la inglesa, la egipcia entre otras. También se ven íntimamente ligados a la gastronomía, la cual es variante por el polo pluricultural que se vuelven al recibir a viajeros de puntos muy diversos, en ese sentido, dándose un punto potencial en el cual los vinos frutales pueden tener una mayor aceptación y demanda por parte de los turistas tanto nacionales como extranjeros. Tanto la industria de vinos, así como la industria de hostales, no poseen estudios previos, realizados por instituciones privadas o de gobierno En El Salvador existen regulaciones tanto para los hostales como para las empresas productoras de bebidas alcohólicas englobando en ellas a los productores de vinos, entre ellas se contemplan: 1) La ley de turismo, 2) el código de salud y 3) la ley reguladora de la producción y comercialización del alcohol y de las bebidas alcohólicas . La propuesta que desarrolla la investigación se define como una Guía sistemática para procesos de vinculación estratégica interinstitucional y negociación empresarial entre empresas productoras de vinos y hostales de la ruta fresca ubicada en la zona turística del departamento de Chalatenango que comprende los municipios de Cítala, La Palma y San Ignacio. Teniendo como objetivo principal el, Presentar a las empresas una herramienta que les acompañe en los procesos de negociación comercial vinculante que realicen, identificando etapas de manera sistemática cuyo fin es el logro de consensos bilaterales donde cada una de las empresas obtengan lo mejor en acuerdos vinculantes y comerciales. La guía sistemática, propone una serie de pasos con los cuales se busca presentar un esquema básico de los procesos de negociación. Así la secuencia logística de operatividad se compone de la siguiente manera: Está conformada por diez etapas, las cuales comprende el proceso de negociación desde un punto inicial donde el primer objetivo es hacer un contacto con las empresas utilizando una serie de herramientas, hasta la etapa final que es el seguimiento y control de la post venta, es decir que se busca mantener y mejorar las relaciones comerciales-económicas que se puedan desarrollar. ETAPA 1: PROCESO DE PROSPECCIÓN. ETAPA 2: CREACIÓN DE CANALES DE COMUNICACIÓN. ETAPA 3: ACERCAMIENTO AL PRODUCTO. ETAPA 4: PROCESO DE NEGOCIACIÓN. ETAPA 5 ELECCIÓN DE LAS MEJORES ESTRATEGIAS. ETAPA 6 POLÍTICAS DE COMERCIALIZACIÓN. ETAPA 7 ESTABLECIMIENTO DE LOS ACUERDOS ETAPA 8. CANALES DE DISTRIBUCIÓN ETAPA 9 PROCESOS DE ABASTECIMIENTO DE LOS PRODUCTOS. ETAPA 10 CONTROL Y SEGUIMIENTO POST VENTA.
Resumo:
En el mundo de los negocios se desarrolla un proceso dinámico de intercambio que ha experimentado transformaciones importantes en las últimas décadas, sin que se pierda la esencia de las transacciones comerciales que nacieron prácticamente desde que existe la raza humana. La raíz del intercambio económico radica en las transacciones de compra y venta de bienes y servicios que se realizan para satisfacer necesidades. Estas transacciones son ejecutadas por personas naturales y jurídicas, que ofrecen bienes y servicios, que son negociados en los distintos mercados. Las empresas, como entidades económicas, también son bienes transables, en las que interviene el capital y el trabajo. Estas son poseedoras de activos, pasivos, generan ingresos y existen con el fin de generar riqueza. La adquisición de una empresa implica: la negociación entre un inversor, que juega el papel de comprador, y un oferente que es el empresario interesado en vender. Ambos buscan alcanzar el máximo beneficio de las operaciones que realizan. Los inversores, hacen uso de distintas herramientas para poder investigar, revisar y ejecutar la transacción de manera óptima y lícita. Una de las herramientas que se utilizada en el mundo moderno de los negocios es el due diligence. El due diligence es un proceso de levantamiento, revisión y análisis de información que se ocupa para varios fines. Regularmente es utilizado para cierres de negocios y se ejecuta siempre que las partes hayan concluido que es factible financieramente una posible transacción de adquisición. El proceso de levantamiento de información incluye aspectos legales, financieros, operativos, mercadológicos y estratégicos. En El Salvador, buena parte de las transacciones de compraventa en micro y pequeñas empresas, se hacen sin tomar en cuenta el due diligence. Las transacciones se realizan de manera tradicional e incluso empíricamente. Sin embargo, en entidades medianas y grandes, que están mejor organizadas y con más recurso financiero, se contratan empresas y/o consultores que se especializan en la realización de estos estudios. El due diligence es una metodología de valoración, no es una auditoría, ni una receta técnica. Es una guía para aplicar la “debida diligencia” y “revisión de negocios”; que varía de acuerdo a las condiciones particulares de cada empresa, así como a la perspicacia y visión del equipo técnico, legal y financiero nombrado por el inversionista y el vendedor.