975 resultados para Libreros y librerías


Relevância:

90.00% 90.00%

Publicador:

Resumo:

La falta de políticas nacionales de inversión en el fondo antiguo en la Argentina hace que la cifra de libros editados antes de 1800 y resguardados en las bibliotecas de nuestro país sea hoy "incalculable" (Fernández Rojo, 2008). Esta comunicación presenta las conclusiones obtenidas durante un trabajo de exploración llevado a cabo durante el año 2011 en el depósito general de la Biblioteca Pública de la Universidad Nacional de La Plata. Se expone una metodología sencilla para la identificación, descripción y registro fotográfico de libros antiguos dispersos en el depósito, por medio de la cual fue posible recobrar 88 documentos con fecha anterior a 1800 en los estantes de la colección general y obtener 682 fotografías, las cuales registraron encuadernaciones, ilustraciones, manuscritos, sellos, ex libris y el estado de conservación de los libros. El cotejo de los resultados con la información disponible en el OPAC y la búsqueda de los títulos en catálogos de libreros y bibliotecas nacionales demostraron el considerable valor económico y patrimonial de los documentos identificados. Por otro lado, esta tarea puso de manifiesto la escasa visibilidad que tienen estos materiales y las dificultades de acceso que presentan registros manuales o de carga mínima para la comunidad de investigadores y el público en general. Se ejemplifica el valor económico y patrimonial de este tipo de material con la descripción de algunos casos representativos, al mismo tiempo que se lista el conjunto de elementos que debe contener un registro bibliográfico para una efectiva recuperación de libros antiguos en el OPAC y su correcta identificación teniendo en cuenta los intereses posibles de investigadores

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La falta de políticas nacionales de inversión en el fondo antiguo en la Argentina hace que la cifra de libros editados antes de 1800 y resguardados en las bibliotecas de nuestro país sea hoy "incalculable" (Fernández Rojo, 2008). Esta comunicación presenta las conclusiones obtenidas durante un trabajo de exploración llevado a cabo durante el año 2011 en el depósito general de la Biblioteca Pública de la Universidad Nacional de La Plata. Se expone una metodología sencilla para la identificación, descripción y registro fotográfico de libros antiguos dispersos en el depósito, por medio de la cual fue posible recobrar 88 documentos con fecha anterior a 1800 en los estantes de la colección general y obtener 682 fotografías, las cuales registraron encuadernaciones, ilustraciones, manuscritos, sellos, ex libris y el estado de conservación de los libros. El cotejo de los resultados con la información disponible en el OPAC y la búsqueda de los títulos en catálogos de libreros y bibliotecas nacionales demostraron el considerable valor económico y patrimonial de los documentos identificados. Por otro lado, esta tarea puso de manifiesto la escasa visibilidad que tienen estos materiales y las dificultades de acceso que presentan registros manuales o de carga mínima para la comunidad de investigadores y el público en general. Se ejemplifica el valor económico y patrimonial de este tipo de material con la descripción de algunos casos representativos, al mismo tiempo que se lista el conjunto de elementos que debe contener un registro bibliográfico para una efectiva recuperación de libros antiguos en el OPAC y su correcta identificación teniendo en cuenta los intereses posibles de investigadores

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La falta de políticas nacionales de inversión en el fondo antiguo en la Argentina hace que la cifra de libros editados antes de 1800 y resguardados en las bibliotecas de nuestro país sea hoy "incalculable" (Fernández Rojo, 2008). Esta comunicación presenta las conclusiones obtenidas durante un trabajo de exploración llevado a cabo durante el año 2011 en el depósito general de la Biblioteca Pública de la Universidad Nacional de La Plata. Se expone una metodología sencilla para la identificación, descripción y registro fotográfico de libros antiguos dispersos en el depósito, por medio de la cual fue posible recobrar 88 documentos con fecha anterior a 1800 en los estantes de la colección general y obtener 682 fotografías, las cuales registraron encuadernaciones, ilustraciones, manuscritos, sellos, ex libris y el estado de conservación de los libros. El cotejo de los resultados con la información disponible en el OPAC y la búsqueda de los títulos en catálogos de libreros y bibliotecas nacionales demostraron el considerable valor económico y patrimonial de los documentos identificados. Por otro lado, esta tarea puso de manifiesto la escasa visibilidad que tienen estos materiales y las dificultades de acceso que presentan registros manuales o de carga mínima para la comunidad de investigadores y el público en general. Se ejemplifica el valor económico y patrimonial de este tipo de material con la descripción de algunos casos representativos, al mismo tiempo que se lista el conjunto de elementos que debe contener un registro bibliográfico para una efectiva recuperación de libros antiguos en el OPAC y su correcta identificación teniendo en cuenta los intereses posibles de investigadores

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El modelo de investigación y pronóstico climático (WRF) es un sistema completamente funcional de modelado que permite realizar investigación atmosférica y predicción meteorológica. WRF fue desarrollado con énfasis en la eficiencia, portabilidad, facilidad de mantenimiento, escalabilidad y productividad, lo que ha permitido que sea implementado con éxito en una amplia variedad de equipos HPC. Por esta razón, el tamaño de los problemas a los que WRF da soporte ha incrementado, por lo que el entendimiento de la dependencia del WRF con los diversos elementos de clúster, como la CPU, interconexiones y librerías, son cruciales para permitir predicciones eficientes y de alta productividad. En este contexto, el presente manuscrito estudia la escalabilidad de WRF en un equipo HPC, tomando en consideración tres parámetros: número de CPUs y nodos, comunicaciones y librerías. Para esto, dos benchmarks son llevados a cabo sobre un clúster de alto rendimiento dotado de una red GigaEthernet, los cuales permiten establecer la relación entre escalabilidad y los tres parámetros estudiados, y particularmente demuestran la sensibilidad del WRF a la comunicación inter-nodo. Dicho factor es esencial para mantener la escalabilidad y el aumento de la productividad al añadir nodos en el clúster.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El Centro Internacional del Libro Infantil y Juvenil de la Fundación Germán Sánchez Ruipérez propuso en mayo de 2004 a instituciones, asociaciones y revistas de toda España la constitución de una red de trabajo, para el desarrollo de proyectos relacionados con la selección de lecturas para niños y jóvenes. A partir de esa fecha, en la que quedó constituida la Red de Selección de Libros Infantiles y Juveniles, el primer objetivo de ésta es armonizar los esfuerzos de crítica y valoración de obras que hacen especialistas con muchos años de experiencia, respecto a la recomendación de lecturas en las distintas lenguas de España. El segundo objetivo es entresacar de la ingente producción actual de libros para niños y jóvenes los más relevantes, tarea demandada por una sociedad cada vez más consciente de lo importante que es lograr la afición lectora en las primeras edades. Por último, se trata de ofrecer relaciones de buenas y sugerentes obras a los docentes, bibliotecarios, libreros y familias, para que con ellas estimulen a los pequeños y adolescentes el gusto por leer.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dirigido a profesores de primaria y secundaria, este manual proporciona un esquema de qué es la dislexia, cómo afecta al aprendizaje de los niños, las estrategias que pueden ponerse en práctica para aliviar sus dificultades y ayudarles a liberar todo su potencial. Considera cómo puede beneficiar a los estudiantes con dislexia el aprendizaje multisensorial, que hace uso de todos los sentidos. Hace referencia a recursos adicionales, programas de enseñanza, sitios web, libros y librerías especializadas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se añaden dos fotografías del aspecto que tenían los sótanos del Departamento de Publicaciones del Consejo, con las pilas de libros preparados para su distribución

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Resumen tomado de la publicación

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[ES] COMO (Cooperative Modeller) es un software de modelado 3D colaborativo. Siguiendo una arquitectura cliente-servidor, este software permite que múltiples usuarios se conecten a través de la red y tabajen, en tiempo real, sobre la misma escena 3D. Las principales funcionalidades de COMO incluyen la creación de primitivas geométricas (cubos, conos, cilindros y esferas), el importado de mallas desde fichero (.obj), la transfrmación de selecciones de objetos (traslaciones, rotaciones y escalados), la creación de múltiples luces direccionales, la edición de materiales, o la aplicación de texturas a ciertas mallas. Aunque actualmente COMO se encuentra únicamente disponible para Ubuntu, el proyecto se ha realizado con una visión plataforma. Por esta razón, se ha empleado tecnologías y librerías multiplataforma como OpenGL, Qt o Boost, de manera que se facilite el portado del software a otras plataformas en el futuro.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente proyecto final de carrera titulado “Modelado de alto nivel con SystemC” tiene como objetivo principal el modelado de algunos módulos de un codificador de vídeo MPEG-2 utilizando el lenguaje de descripción de sistemas igitales SystemC con un nivel de abstracción TLM o Transaction Level Modeling. SystemC es un lenguaje de descripción de sistemas digitales basado en C++. En él hay un conjunto de rutinas y librerías que implementan tipos de datos, estructuras y procesos especiales para el modelado de sistemas digitales. Su descripción se puede consultar en [GLMS02] El nivel de abstracción TLM se caracteriza por separar la comunicación entre los módulos de su funcionalidad. Este nivel de abstracción hace un mayor énfasis en la funcionalidad de la comunicación entre los módulos (de donde a donde van datos) que la implementación exacta de la misma. En los documentos [RSPF] y [HG] se describen el TLM y un ejemplo de implementación. La arquitectura del modelo se basa en el codificador MVIP-2 descrito en [Gar04], de dicho modelo, los módulos implementados son: · IVIDEOH: módulo que realiza un filtrado del vídeo de entrada en la dimensión horizontal y guarda en memoria el video filtrado. · IVIDEOV: módulo que lee de la memoria el vídeo filtrado por IVIDEOH, realiza el filtrado en la dimensión horizontal y escribe el video filtrado en memoria. · DCT: módulo que lee el video filtrado por IVIDEOV, hace la transformada discreta del coseno y guarda el vídeo transformado en la memoria. · QUANT: módulo que lee el video transformado por DCT, lo cuantifica y guarda el resultado en la memoria. · IQUANT: módulo que lee el video cuantificado por QUANT, realiza la cuantificación inversa y guarda el resultado en memoria. · IDCT: módulo que lee el video procesado por IQUANT, realiza la transformada inversa del coseno y guarda el resultado en memoria. · IMEM: módulo que hace de interfaz entre los módulos anteriores y la memoria. Gestiona las peticiones simultáneas de acceso a la memoria y asegura el acceso exclusivo a la memoria en cada instante de tiempo. Todos estos módulos aparecen en gris en la siguiente figura en la que se muestra la arquitectura del modelo: Figura 1. Arquitectura del modelo (VER PDF DEL PFC) En figura también aparecen unos módulos en blanco, dichos módulos son de pruebas y se han añadido para realizar simulaciones y probar los módulos del modelo: · CAMARA: módulo que simula una cámara en blanco y negro, lee la luminancia de un fichero de vídeo y lo envía al modelo a través de una FIFO. · FIFO: hace de interfaz entre la cámara y el modelo, guarda los datos que envía la cámara hasta que IVIDEOH los lee. · CONTROL: módulo que se encarga de controlar los módulos que procesan el vídeo, estos le indican cuando terminan de procesar un frame de vídeo y este módulo se encarga de iniciar los módulos que sean necesarios para seguir con la codificación. Este módulo se encarga del correcto secuenciamiento de los módulos procesadores de vídeo. · RAM: módulo que simula una memoria RAM, incluye un retardo programable en el acceso. Para las pruebas también se han generado ficheros de vídeo con el resultado de cada módulo procesador de vídeo, ficheros con mensajes y un fichero de trazas en el que se muestra el secuenciamiento de los procesadores. Como resultado del trabajo en el presente PFC se puede concluir que SystemC permite el modelado de sistemas digitales con bastante sencillez (hace falta conocimientos previos de C++ y programación orientada objetos) y permite la realización de modelos con un nivel de abstracción mayor a RTL, el habitual en Verilog y VHDL, en el caso del presente PFC, el TLM. ABSTRACT This final career project titled “High level modeling with SystemC” have as main objective the modeling of some of the modules of an MPEG-2 video coder using the SystemC digital systems description language at the TLM or Transaction Level Modeling abstraction level. SystemC is a digital systems description language based in C++. It contains routines and libraries that define special data types, structures and process to model digital systems. There is a complete description of the SystemC language in the document [GLMS02]. The main characteristic of TLM abstraction level is that it separates the communication among modules of their functionality. This abstraction level puts a higher emphasis in the functionality of the communication (from where to where the data go) than the exact implementation of it. The TLM and an example are described in the documents [RSPF] and [HG]. The architecture of the model is based in the MVIP-2 video coder (described in the document [Gar04]) The modeled modules are: · IVIDEOH: module that filter the video input in the horizontal dimension. It saves the filtered video in the memory. · IVIDEOV: module that read the IVIDEOH filtered video, filter it in the vertical dimension and save the filtered video in the memory. · DCT: module that read the IVIDEOV filtered video, do the discrete cosine transform and save the transformed video in the memory. · QUANT: module that read the DCT transformed video, quantify it and save the quantified video in the memory. · IQUANT: module that read the QUANT processed video, do the inverse quantification and save the result in the memory. · IDCT: module that read the IQUANT processed video, do the inverse cosine transform and save the result in the memory. · IMEM: this module is the interface between the modules described previously and the memory. It manage the simultaneous accesses to the memory and ensure an unique access at each instant of time All this modules are included in grey in the following figure (SEE PDF OF PFC). This figure shows the architecture of the model: Figure 1. Architecture of the model This figure also includes other modules in white, these modules have been added to the model in order to simulate and prove the modules of the model: · CAMARA: simulates a black and white video camera, it reads the luminance of a video file and sends it to the model through a FIFO. · FIFO: is the interface between the camera and the model, it saves the video data sent by the camera until the IVIDEOH module reads it. · CONTROL: controls the modules that process the video. These modules indicate the CONTROL module when they have finished the processing of a video frame. The CONTROL module, then, init the necessary modules to continue with the video coding. This module is responsible of the right sequence of the video processing modules. · RAM: it simulates a RAM memory; it also simulates a programmable delay in the access to the memory. It has been generated video files, text files and a trace file to check the correct function of the model. The trace file shows the sequence of the video processing modules. As a result of the present final career project, it can be deduced that it is quite easy to model digital systems with SystemC (it is only needed previous knowledge of C++ and object oriented programming) and it also allow the modeling with a level of abstraction higher than the RTL used in Verilog and VHDL, in the case of the present final career project, the TLM.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Resource analysis aims at inferring the cost of executing programs for any possible input, in terms of a given resource, such as the traditional execution steps, time ormemory, and, more recently energy consumption or user defined resources (e.g., number of bits sent over a socket, number of database accesses, number of calls to particular procedures, etc.). This is performed statically, i.e., without actually running the programs. Resource usage information is useful for a variety of optimization and verification applications, as well as for guiding software design. For example, programmers can use such information to choose different algorithmic solutions to a problem; program transformation systems can use cost information to choose between alternative transformations; parallelizing compilers can use cost estimates for granularity control, which tries to balance the overheads of task creation and manipulation against the benefits of parallelization. In this thesis we have significatively improved an existing prototype implementation for resource usage analysis based on abstract interpretation, addressing a number of relevant challenges and overcoming many limitations it presented. The goal of that prototype was to show the viability of casting the resource analysis as an abstract domain, and howit could overcome important limitations of the state-of-the-art resource usage analysis tools. For this purpose, it was implemented as an abstract domain in the abstract interpretation framework of the CiaoPP system, PLAI.We have improved both the design and implementation of the prototype, for eventually allowing an evolution of the tool to the industrial application level. The abstract operations of such tool heavily depend on the setting up and finding closed-form solutions of recurrence relations representing the resource usage behavior of program components and the whole program as well. While there exist many tools, such as Computer Algebra Systems (CAS) and libraries able to find closed-form solutions for some types of recurrences, none of them alone is able to handle all the types of recurrences arising during program analysis. In addition, there are some types of recurrences that cannot be solved by any existing tool. This clearly constitutes a bottleneck for this kind of resource usage analysis. Thus, one of the major challenges we have addressed in this thesis is the design and development of a novel modular framework for solving recurrence relations, able to combine and take advantage of the results of existing solvers. Additionally, we have developed and integrated into our novel solver a technique for finding upper-bound closed-form solutions of a special class of recurrence relations that arise during the analysis of programs with accumulating parameters. Finally, we have integrated the improved resource analysis into the CiaoPP general framework for resource usage verification, and specialized the framework for verifying energy consumption specifications of embedded imperative programs in a real application, showing the usefulness and practicality of the resulting tool.---ABSTRACT---El Análisis de recursos tiene como objetivo inferir el coste de la ejecución de programas para cualquier entrada posible, en términos de algún recurso determinado, como pasos de ejecución, tiempo o memoria, y, más recientemente, el consumo de energía o recursos definidos por el usuario (por ejemplo, número de bits enviados a través de un socket, el número de accesos a una base de datos, cantidad de llamadas a determinados procedimientos, etc.). Ello se realiza estáticamente, es decir, sin necesidad de ejecutar los programas. La información sobre el uso de recursos resulta muy útil para una gran variedad de aplicaciones de optimización y verificación de programas, así como para asistir en el diseño de los mismos. Por ejemplo, los programadores pueden utilizar dicha información para elegir diferentes soluciones algorítmicas a un problema; los sistemas de transformación de programas pueden utilizar la información de coste para elegir entre transformaciones alternativas; los compiladores paralelizantes pueden utilizar las estimaciones de coste para realizar control de granularidad, el cual trata de equilibrar el coste debido a la creación y gestión de tareas, con los beneficios de la paralelización. En esta tesis hemos mejorado de manera significativa la implementación de un prototipo existente para el análisis del uso de recursos basado en interpretación abstracta, abordando diversos desafíos relevantes y superando numerosas limitaciones que éste presentaba. El objetivo de dicho prototipo era mostrar la viabilidad de definir el análisis de recursos como un dominio abstracto, y cómo se podían superar las limitaciones de otras herramientas similares que constituyen el estado del arte. Para ello, se implementó como un dominio abstracto en el marco de interpretación abstracta presente en el sistema CiaoPP, PLAI. Hemos mejorado tanto el diseño como la implementación del mencionado prototipo para posibilitar su evolución hacia una herramienta utilizable en el ámbito industrial. Las operaciones abstractas de dicha herramienta dependen en gran medida de la generación, y posterior búsqueda de soluciones en forma cerrada, de relaciones recurrentes, las cuales modelizan el comportamiento, respecto al consumo de recursos, de los componentes del programa y del programa completo. Si bien existen actualmente muchas herramientas capaces de encontrar soluciones en forma cerrada para ciertos tipos de recurrencias, tales como Sistemas de Computación Algebraicos (CAS) y librerías de programación, ninguna de dichas herramientas es capaz de tratar, por sí sola, todos los tipos de recurrencias que surgen durante el análisis de recursos. Existen incluso recurrencias que no las puede resolver ninguna herramienta actual. Esto constituye claramente un cuello de botella para este tipo de análisis del uso de recursos. Por lo tanto, uno de los principales desafíos que hemos abordado en esta tesis es el diseño y desarrollo de un novedoso marco modular para la resolución de relaciones recurrentes, combinando y aprovechando los resultados de resolutores existentes. Además de ello, hemos desarrollado e integrado en nuestro nuevo resolutor una técnica para la obtención de cotas superiores en forma cerrada de una clase característica de relaciones recurrentes que surgen durante el análisis de programas lógicos con parámetros de acumulación. Finalmente, hemos integrado el nuevo análisis de recursos con el marco general para verificación de recursos de CiaoPP, y hemos instanciado dicho marco para la verificación de especificaciones sobre el consumo de energía de programas imperativas embarcados, mostrando la viabilidad y utilidad de la herramienta resultante en una aplicación real.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En un momento en el que la Nube cobra cada día más fuerza, contribuyendo como pieza fundamental en la aparición de nuevos modelos de negocio, que a su vez originan una amplia oferta de aplicaciones útiles en prácticamente todos los ámbitos; la Unión Europea decidió sumergirse en el proyecto FIWARE, con la idea de alzarse como una nueva alternativa pública de código abierto, en un mercado dominado desde hace años por Google y Amazon. Desde 2011, FIWARE crece gracias al trabajo colaborativo de multitud de empresas e instituciones europeas especializadas en el ámbito de las TIC, con el objetivo de ofrecer un entorno estandarizado y de código abierto, que de soporte en la nube, tanto a las empresas como a las aplicaciones que puedan surgir en el futuro. Entre el amplio conjunto de contribuidores al proyecto, se encuentra la Universidad Politécnica de Madrid. Concretamente, como parte de la Cátedra de Telefónica en la Escuela Superior de Ingenieros de Telecomunicación, nace el Grupo de Internet de Nueva Generación (GING), responsable de importantes aportaciones al proyecto FIWARE. Entre las diferentes actividades a cargo del GING, están el diseño, la implementación y el mantenimiento del Portal Cloud, la interfaz gráfica que proporciona acceso desde la web a los diferentes servicios de la nube de FIWARE, basados la mayoría en los recursos Openstack: proveedor de infraestructura como servicio (IaaS). El objetivo de este trabajo será introducir al lector los principales propósitos por los que nace FIWARE, y presentar una serie de desarrollos realizados bajo la firma del GING, en torno al Portal y su relación con la infraestructura Openstack. A lo largo del documento, se explicarán los diferentes procedimientos vinculados a la implementación de las herramientas web que han contribuido a mejorar la funcionalidad del Portal. Dichos procedimientos, entrañan el estudio y empleo de tres tecnologías fundamentales: desarrollos web de front-end y el empleo de la framework BackboneJS, los recursos Openstack y el entorno de desarrollo Devstack, y el concepto de los widgets aplicado a la monitorización de máquinas virtuales. La lectura de este documento puede resultar de gran utilidad, pues, la implantación de los diferentes casos de uso tratados en este proyecto, permite hacer un repaso de los diferentes niveles de abstracción con los que cuenta una herramienta como el Portal Cloud: partiendo de la implementación de la interfaz de usuario, hasta llegar a la configuración de los recursos que conforman el soporte de la aplicación, pasando por la creación de APIs y librerías que proporcionen acceso a los distintos servicios disponibles. Así, el análisis de la estructura y componentes que dan forma al Portal Cloud de FIWARE, proporcionará una visión global, extrapolable al diseño y funcionamiento de cualquier aplicación o plataforma que emplee como soporte de sus capacidades los servicios ofrecidos por proveedores de Infraestructura como Servicio.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fundado en abril de 1837 por Modesto Lafuente, el Fray Gerundio fue el principal periódico satírico de su tiempo, así como uno de los más populares y vendidos. Su crítica permanente al poder le valió varias amonestaciones por parte de los distintos gobiernos, la última de las cuales acabó con su cierre en marzo de 1840 por desacato, una acusación que luego se comprobó contraria a la ley. El cierre lo hizo aún más popular y convirtió a Modesto Lafuente en una verdadera celebridad por su defensa de la libertad de imprenta.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En la actualidad, el uso del Cloud Computing se está incrementando y existen muchos proveedores que ofrecen servicios que hacen uso de esta tecnología. Uno de ellos es Amazon Web Services, que a través de su servicio Amazon EC2, nos ofrece diferentes tipos de instancias que podemos utilizar según nuestras necesidades. El modelo de negocio de AWS se basa en el pago por uso, es decir, solo realizamos el pago por el tiempo que se utilicen las instancias. En este trabajo se implementa en Amazon EC2, una aplicación cuyo objetivo es extraer de diferentes fuentes de información, los datos de las ventas realizadas por las editoriales y librerías de España. Estos datos son procesados, cargados en una base de datos y con ellos se generan reportes estadísticos, que ayudarán a los clientes a tomar mejores decisiones. Debido a que la aplicación procesa una gran cantidad de datos, se propone el desarrollo y validación de un modelo, que nos permita obtener una ejecución óptima en Amazon EC2. En este modelo se tienen en cuenta el tiempo de ejecución, el coste por uso y una métrica de coste/rendimiento. Adicionalmente, se utilizará la tecnología de contenedores Docker para llevar a cabo un caso específico del despliegue de la aplicación.