973 resultados para análisis estático


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tesis ( Maestría en Artes con Especialidad en Educación en el Arte) U.A.N.L.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El artículo forma parte de la sección de la revista: Aula de ... Experiencias prácticas. Resumen de la revista

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fil: Zalazar, Oscar. Universidad Nacional de Cuyo. Facultad de Artes y Diseño

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo tiene como objetivo indagar sobre la relación entre lo político como efecto de una historia conflictiva y lo estético a partir de la categoría de "juicio reflexivo" como juicio político proveniente del pensamiento arendtiano. Esta relación supone tres cuestiones a investigar. En primer lugar la idea de que lo político se encuentra contaminado por el discurso de la historia. En segundo lugar, que esta contaminación instituye una conceptualización estética de la política que Arendt trabaja a partir de los juicios reflexivos kantianos. Y en tercer lugar, que esa conceptualización estética de la vida política conduce al conflicto coyuntural entre la tradición y el presente. De esta forma, lo "instituido" (Stiftung) crea o funda espacios propios de visibilidad que habilita conectar al sujeto con el mundo de la vita activa. De este modo y en este espacio, se concreta la posibilidad de entender por qué para Arendt es tan relevante pensar la conflictividad de la política como un estudio análogo a su planteo estético de la misma. Para comprender con más claridad esta relación es necesario remitirse a los clásicos estudios fenomenológicos (Husserl y Merleau-Ponty) como así, a escritos de Arendt 1 que justifican esta conflictividad propia del espacio político

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo tiene como objetivo indagar sobre la relación entre lo político como efecto de una historia conflictiva y lo estético a partir de la categoría de "juicio reflexivo" como juicio político proveniente del pensamiento arendtiano. Esta relación supone tres cuestiones a investigar. En primer lugar la idea de que lo político se encuentra contaminado por el discurso de la historia. En segundo lugar, que esta contaminación instituye una conceptualización estética de la política que Arendt trabaja a partir de los juicios reflexivos kantianos. Y en tercer lugar, que esa conceptualización estética de la vida política conduce al conflicto coyuntural entre la tradición y el presente. De esta forma, lo "instituido" (Stiftung) crea o funda espacios propios de visibilidad que habilita conectar al sujeto con el mundo de la vita activa. De este modo y en este espacio, se concreta la posibilidad de entender por qué para Arendt es tan relevante pensar la conflictividad de la política como un estudio análogo a su planteo estético de la misma. Para comprender con más claridad esta relación es necesario remitirse a los clásicos estudios fenomenológicos (Husserl y Merleau-Ponty) como así, a escritos de Arendt 1 que justifican esta conflictividad propia del espacio político

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo tiene como objetivo indagar sobre la relación entre lo político como efecto de una historia conflictiva y lo estético a partir de la categoría de "juicio reflexivo" como juicio político proveniente del pensamiento arendtiano. Esta relación supone tres cuestiones a investigar. En primer lugar la idea de que lo político se encuentra contaminado por el discurso de la historia. En segundo lugar, que esta contaminación instituye una conceptualización estética de la política que Arendt trabaja a partir de los juicios reflexivos kantianos. Y en tercer lugar, que esa conceptualización estética de la vida política conduce al conflicto coyuntural entre la tradición y el presente. De esta forma, lo "instituido" (Stiftung) crea o funda espacios propios de visibilidad que habilita conectar al sujeto con el mundo de la vita activa. De este modo y en este espacio, se concreta la posibilidad de entender por qué para Arendt es tan relevante pensar la conflictividad de la política como un estudio análogo a su planteo estético de la misma. Para comprender con más claridad esta relación es necesario remitirse a los clásicos estudios fenomenológicos (Husserl y Merleau-Ponty) como así, a escritos de Arendt 1 que justifican esta conflictividad propia del espacio político

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro de la computación con membranas. Se trata de un tipo de computación bio-inspirado, concretamente basado en las células de los organismos vivos, en las que se producen múltiples reacciones de forma simultánea. A partir de la estructura y funcionamiento de las células se han definido diferentes modelos formales, denominados P sistemas. Estos modelos no tratan de modelar el comportamiento biológico de una célula, sino que abstraen sus principios básicos con objeto de encontrar nuevos paradigmas computacionales. Los P sistemas son modelos de computación no deterministas y masivamente paralelos. De ahí el interés que en los últimos años estos modelos han suscitado para la resolución de problemas complejos. En muchos casos, consiguen resolver de forma teórica problemas NP-completos en tiempo polinómico o lineal. Por otra parte, cabe destacar también la aplicación que la computación con membranas ha tenido en la investigación de otros muchos campos, sobre todo relacionados con la biología. Actualmente, una gran cantidad de estos modelos de computación han sido estudiados desde el punto de vista teórico. Sin embargo, el modo en que pueden ser implementados es un reto de investigación todavía abierto. Existen varias líneas en este sentido, basadas en arquitecturas distribuidas o en hardware dedicado, que pretenden acercarse en lo posible a su carácter no determinista y masivamente paralelo, dentro de un contexto de viabilidad y eficiencia. En esta tesis doctoral se propone la realización de un análisis estático del P sistema, como vía para optimizar la ejecución del mismo en estas plataformas. Se pretende que la información recogida en tiempo de análisis sirva para configurar adecuadamente la plataforma donde se vaya a ejecutar posteriormente el P sistema, obteniendo como consecuencia una mejora en el rendimiento. Concretamente, en esta tesis se han tomado como referencia los P sistemas de transiciones para llevar a cabo el estudio de dicho análisis estático. De manera un poco más específica, el análisis estático propuesto en esta tesis persigue que cada membrana sea capaz de determinar sus reglas activas de forma eficiente en cada paso de evolución, es decir, aquellas reglas que reúnen las condiciones adecuadas para poder ser aplicadas. En esta línea, se afronta el problema de los estados de utilidad de una membrana dada, que en tiempo de ejecución permitirán a la misma conocer en todo momento las membranas con las que puede comunicarse, cuestión que determina las reglas que pueden aplicarse en cada momento. Además, el análisis estático propuesto en esta tesis se basa en otra serie de características del P sistema como la estructura de membranas, antecedentes de las reglas, consecuentes de las reglas o prioridades. Una vez obtenida toda esta información en tiempo de análisis, se estructura en forma de árbol de decisión, con objeto de que en tiempo de ejecución la membrana obtenga las reglas activas de la forma más eficiente posible. Por otra parte, en esta tesis se lleva a cabo un recorrido por un número importante de arquitecturas hardware y software que diferentes autores han propuesto para implementar P sistemas. Fundamentalmente, arquitecturas distribuidas, hardware dedicado basado en tarjetas FPGA y plataformas basadas en microcontroladores PIC. El objetivo es proponer soluciones que permitan implantar en dichas arquitecturas los resultados obtenidos del análisis estático (estados de utilidad y árboles de decisión para reglas activas). En líneas generales, se obtienen conclusiones positivas, en el sentido de que dichas optimizaciones se integran adecuadamente en las arquitecturas sin penalizaciones significativas. Summary Membrane computing is the focus of this doctoral thesis. It can be considered a bio-inspired computing type. Specifically, it is based on living cells, in which many reactions take place simultaneously. From cell structure and operation, many different formal models have been defined, named P systems. These models do not try to model the biological behavior of the cell, but they abstract the basic principles of the cell in order to find out new computational paradigms. P systems are non-deterministic and massively parallel computational models. This is why, they have aroused interest when dealing with complex problems nowadays. In many cases, they manage to solve in theory NP problems in polynomial or lineal time. On the other hand, it is important to note that membrane computing has been successfully applied in many researching areas, specially related to biology. Nowadays, lots of these computing models have been sufficiently characterized from a theoretical point of view. However, the way in which they can be implemented is a research challenge, that it is still open nowadays. There are some lines in this way, based on distributed architectures or dedicated hardware. All of them are trying to approach to its non-deterministic and parallel character as much as possible, taking into account viability and efficiency. In this doctoral thesis it is proposed carrying out a static analysis of the P system in order to optimize its performance in a computing platform. The general idea is that after data are collected in analysis time, they are used for getting a suitable configuration of the computing platform in which P system is going to be performed. As a consequence, the system throughput will improve. Specifically, this thesis has made use of Transition P systems for carrying out the study in static analysis. In particular, the static analysis proposed in this doctoral thesis tries to achieve that every membrane can efficiently determine its active rules in every evolution step. These rules are the ones that can be applied depending on the system configuration at each computational step. In this line, we are going to tackle the problem of the usefulness states for a membrane. This state will allow this membrane to know the set of membranes with which communication is possible at any time. This is a very important issue in determining the set of rules that can be applied. Moreover, static analysis in this thesis is carried out taking into account other properties such as membrane structure, rule antecedents, rule consequents and priorities among rules. After collecting all data in analysis time, they are arranged in a decision tree structure, enabling membranes to obtain the set of active rules as efficiently as possible in run-time system. On the other hand, in this doctoral thesis is going to carry out an overview of hardware and software architectures, proposed by different authors in order to implement P systems, such as distributed architectures, dedicated hardware based on PFGA, and computing platforms based on PIC microcontrollers. The aim of this overview is to propose solutions for implementing the results of the static analysis, that is, usefulness states and decision trees for active rules. In general, conclusions are satisfactory, because these optimizations can be properly integrated in most of the architectures without significant penalties.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

España cuenta con un vasto catálogo de patrimonio edificado en obra de fábrica, tanto en el ámbito religioso como en el civil, que recorre un largo camino histórico desde épocas grecorromanas hasta principios del siglo XX. A lo largo de todos estos siglos, la introducción de nuevos materiales como el hormigón o el acero desplazaron el uso del ladrillo y de la piedra en estructuras a situaciones muy puntuales, lo que llevó durante mucho tiempo al olvido de las técnicas propias de estos materiales y a la ausencia de desarrollo de ensayos y estudios sobre ellos. De hecho, no se trata de una situación únicamente española, sino generalizada a nivel internacional. Todo esto, unido a la dificultad de caracterizar convenientemente los materiales componentes y la interfaz, a la gran variedad de patologías que pueden afectar a las fábricas y a la actuación de cargas de largo periodo de retorno, ha provocado que los arquitectos e ingenieros actuales carezcan de herramientas y de un marco normativo adecuados a la hora de aproximarse a este tipo de edificios. La consecuencia directa ha sido la profusión de ejemplos de intervenciones erróneas en los edificios históricos, tanto desde el punto de vista estructural como estético. Se hace, pues, perentorio desarrollar métodos de cálculo y de investigación que proporcionen las herramientas necesarias para ello y devuelvan el interés profesional y académico hacia la obra de fábrica entendida como material estructural. A raíz de lo expuesto anteriormente, el objeto de este trabajo es el de analizar el comportamiento estático de un edificio histórico desde varios puntos de vista: - La caracterización de los materiales. - El comportamiento de los elementos estructurales aislados. - El comportamiento del sistema estructural, tanto en su configuración actual como en su evolución a lo largo de las diversas reformas sufridas. - Las patologías observadas y la adecuación de los cálculos realizados a las mismas. La intención es la de establecer pautas de estudio y herramientas aplicables a otros edificios y situaciones, pero sin propósito de generalización. La metodología utilizada es la del Cálculo Límite o Rígido-plástico, de tipo I, basado en hallar la línea de acción de los empujes en el interior de la fábrica, y que será definido más adelante. Se ha escogido este método porque aúna la economía de medios y la necesidad de pocos datos, fundamentalmente geométricos, con el aporte de información muy valiosa sobre el nivel de cargas y el modo en que responde la estructura. Se renuncia desde el principio a realizar análisis de tipo II y tipo III, por considerar que resultan excesivamente laboriosos en comparación con la información que se busca. Además, de las propias líneas de empuje obtenidas se pueden inferir, que no determinar, tensiones y deformaciones en el edificio, especialmente a través del procedimiento de cálculo utilizado en la asignatura Conservación y Rehabilitación de Estructuras Históricas, de este máster, impartida por el profesor D. Javier León González, por el que se obtiene, no una trayectoria de empujes, sino todas las posibles a través de una serie de valores límites. Para este trabajo se ha elegido la Iglesia Parroquial de Nuestra Señora de la Oliva, de Lebrija, provincia de Sevilla, por varios motivos. De un lado, se trata de un edificio encuadrado en un momento histórico, el de la conquista castellana de los territorios de Al-Ándalus, en el que se construyen numerosos edificios religiosos y civiles con los que comparte muchas de sus características. Por otro lado, y dentro del mismo contexto, sus particularidades lo convierten en un ejemplo claramente diferenciado y catálogo de soluciones constructivas y estructurales. Por último, se trata de una construcción que ha ido evolucionando en el tiempo, aportando lenguajes y técnicas diferentes, pero que conviven en gran armonía, sin que haya perdido su unicidad en ningún momento (salvo por pequeños elementos en mi opinión disonantes) desde el núcleo original de tipo mudéjar alfonsí (s. XIII) hasta la construcción de su torre campanario en el s. XVIII, pasando por ampliaciones y modificaciones en los siglos XIV a XVII. El ámbito de este trabajo se limita al núcleo mudéjar original junto con la ampliación renacentista del salón principal. Se excluyen por tanto la sacristía y dependencias anexas, la torre campanario y los patios, por ser elementos independientes del resto del conjunto.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Hoy día, se presta la atención a los derivados de furano y a los procesos catalíticos alrededor de éstos para la conversión de los azúcares contenidos en la biomasa lignocelulósica. En este sentido, el furfural también recibe una especial atención como potencial químico para la producción de bioproductos y biocombustibles. Debido a las dificultades presentadas en la separación del furfural en el proceso convencional, en este trabajo se presenta el análisis de la separación para obtener furfural de alta pureza a partir de xilosa deshidratada por destilación reactiva como proceso no convencional, aplicando la teoría básica de análisis estático para obtener la mejor información del proceso de destilación reactiva, obteniendo un esquema tecnológico que permite alcanzar una fracción molar de furfural de aproximadamente 0.9.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Se trata de un observatorio laboral en el que se ha analizado de manera estática y dinámica del mercado laboral catalán.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

[ES] Recientemente estudios previos han comenzado a plantear la posible relación entre el fenómeno de la internacionalización y responsabilidad social corporativa de las organizaciones. En este trabajo analizamos en qué medida la internacionalización contribuye a una mejora sustancial del desempeño social de las empresas. Usando una muestra de 102 empresas estadounidenses de los sectores químico, energético y de maquinaria industrial, nuestros resultados muestran que no todas las dimensiones de la internacionalización permiten a las empresas adquirir conocimiento valioso que conduzca a una mejora de su desempeño social. Concretamente, comprobamos que, mientras el porcentaje de ventas en mercados extranjeros y la diversificación internacional cultural favorecen la puesta en marcha de prácticas de responsabilidad social corporativa avanzadas que redundan en un mejor desempeño social (cumpliendo con las demandas sociales de los grupos de interés de los distintos mercados donde operan), la diversificación internacional geográfica no tiene efecto directo en el desempeño social de las empresas. Por tanto, no es tan importante el número de mercados donde la empresa actúa, sino el grado de diferenciación cultural existente entre los mismos lo que hace que la propia empresa mejore su desempeño social. El presente trabajo incluye implicaciones relevantes para el mundo académico, directivos y reguladores públicos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

[EU]Lan honetan, surf oholetan erabiltzen diren gila mota desberdinen analisia egin da. Horretarako, merkatuan garrantzi handiena duten bi enpresek euren katalogoetan eskaintzen dituzten modelo batzuk aztertu dira. Ingeniaritza simulazioak ahalbidetzen dituen ansys softwarea erabiliz egin da aukeratutako modeloen diseinu geometrikoa. Hauen analisiari ekin baino lehenago, gila hauetako bat aztertu da, hau osatzen duen materiala ezagutu eta ezaugarriak zehaztu asmoz. Aztertutakoa modelo guztiek erabiltzen duten ohiko materiala izanik, lortutako emaitzak baliogarriak dira gila guztiak aztertzeko. Materialaren propietateak ezagututa eta aipatutako softwareaz baliatuz, analisi estatikoa egin da. Horretarako, surfean aurkitzen diren ohiko egoera batzuk irudikatu dira, hauetan agertzen diren esfortzuak kalkulatuz. Gila bakoitzaren portaera, jasandako tentsio eta deformazioak aztertuz ondorioztatu da. Horrela, kasu bakoitzean komenigarrienak diren ezaugarriak oinarri hartuz, modelo desberdinen arteko konparaketa egin da.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El Análisis de Consumo de Recursos o Análisis de Coste trata de aproximar el coste de ejecutar un programa como una función dependiente de sus datos de entrada. A pesar de que existen trabajos previos a esta tesis doctoral que desarrollan potentes marcos para el análisis de coste de programas orientados a objetos, algunos aspectos avanzados, como la eficiencia, la precisión y la fiabilidad de los resultados, todavía deben ser estudiados en profundidad. Esta tesis aborda estos aspectos desde cuatro perspectivas diferentes: (1) Las estructuras de datos compartidas en la memoria del programa son una pesadilla para el análisis estático de programas. Trabajos recientes proponen una serie de condiciones de localidad para poder mantener de forma consistente información sobre los atributos de los objetos almacenados en memoria compartida, reemplazando éstos por variables locales no almacenadas en la memoria compartida. En esta tesis presentamos dos extensiones a estos trabajos: la primera es considerar, no sólo los accesos a los atributos, sino también los accesos a los elementos almacenados en arrays; la segunda se centra en los casos en los que las condiciones de localidad no se cumplen de forma incondicional, para lo cual, proponemos una técnica para encontrar las precondiciones necesarias para garantizar la consistencia de la información acerca de los datos almacenados en memoria. (2) El objetivo del análisis incremental es, dado un programa, los resultados de su análisis y una serie de cambios sobre el programa, obtener los nuevos resultados del análisis de la forma más eficiente posible, evitando reanalizar aquellos fragmentos de código que no se hayan visto afectados por los cambios. Los analizadores actuales todavía leen y analizan el programa completo de forma no incremental. Esta tesis presenta un análisis de coste incremental, que, dado un cambio en el programa, reconstruye la información sobre el coste del programa de todos los métodos afectados por el cambio de forma incremental. Para esto, proponemos (i) un algoritmo multi-dominio y de punto fijo que puede ser utilizado en todos los análisis globales necesarios para inferir el coste, y (ii) una novedosa forma de almacenar las expresiones de coste que nos permite reconstruir de forma incremental únicamente las funciones de coste de aquellos componentes afectados por el cambio. (3) Las garantías de coste obtenidas de forma automática por herramientas de análisis estático no son consideradas totalmente fiables salvo que la implementación de la herramienta o los resultados obtenidos sean verificados formalmente. Llevar a cabo el análisis de estas herramientas es una tarea titánica, ya que se trata de herramientas de gran tamaño y complejidad. En esta tesis nos centramos en el desarrollo de un marco formal para la verificación de las garantías de coste obtenidas por los analizadores en lugar de analizar las herramientas. Hemos implementado esta idea mediante la herramienta COSTA, un analizador de coste para programas Java y KeY, una herramienta de verificación de programas Java. De esta forma, COSTA genera las garantías de coste, mientras que KeY prueba la validez formal de los resultados obtenidos, generando de esta forma garantías de coste verificadas. (4) Hoy en día la concurrencia y los programas distribuidos son clave en el desarrollo de software. Los objetos concurrentes son un modelo de concurrencia asentado para el desarrollo de sistemas concurrentes. En este modelo, los objetos son las unidades de concurrencia y se comunican entre ellos mediante llamadas asíncronas a sus métodos. La distribución de las tareas sugiere que el análisis de coste debe inferir el coste de los diferentes componentes distribuidos por separado. En esta tesis proponemos un análisis de coste sensible a objetos que, utilizando los resultados obtenidos mediante un análisis de apunta-a, mantiene el coste de los diferentes componentes de forma independiente. Abstract Resource Analysis (a.k.a. Cost Analysis) tries to approximate the cost of executing programs as functions on their input data sizes and without actually having to execute the programs. While a powerful resource analysis framework on object-oriented programs existed before this thesis, advanced aspects to improve the efficiency, the accuracy and the reliability of the results of the analysis still need to be further investigated. This thesis tackles this need from the following four different perspectives. (1) Shared mutable data structures are the bane of formal reasoning and static analysis. Analyses which keep track of heap-allocated data are referred to as heap-sensitive. Recent work proposes locality conditions for soundly tracking field accesses by means of ghost non-heap allocated variables. In this thesis we present two extensions to this approach: the first extension is to consider arrays accesses (in addition to object fields), while the second extension focuses on handling cases for which the locality conditions cannot be proven unconditionally by finding aliasing preconditions under which tracking such heap locations is feasible. (2) The aim of incremental analysis is, given a program, its analysis results and a series of changes to the program, to obtain the new analysis results as efficiently as possible and, ideally, without having to (re-)analyze fragments of code that are not affected by the changes. During software development, programs are permanently modified but most analyzers still read and analyze the entire program at once in a non-incremental way. This thesis presents an incremental resource usage analysis which, after a change in the program is made, is able to reconstruct the upper-bounds of all affected methods in an incremental way. To this purpose, we propose (i) a multi-domain incremental fixed-point algorithm which can be used by all global analyses required to infer the cost, and (ii) a novel form of cost summaries that allows us to incrementally reconstruct only those components of cost functions affected by the change. (3) Resource guarantees that are automatically inferred by static analysis tools are generally not considered completely trustworthy, unless the tool implementation or the results are formally verified. Performing full-blown verification of such tools is a daunting task, since they are large and complex. In this thesis we focus on the development of a formal framework for the verification of the resource guarantees obtained by the analyzers, instead of verifying the tools. We have implemented this idea using COSTA, a state-of-the-art cost analyzer for Java programs and KeY, a state-of-the-art verification tool for Java source code. COSTA is able to derive upper-bounds of Java programs while KeY proves the validity of these bounds and provides a certificate. The main contribution of our work is to show that the proposed tools cooperation can be used for automatically producing verified resource guarantees. (4) Distribution and concurrency are today mainstream. Concurrent objects form a well established model for distributed concurrent systems. In this model, objects are the concurrency units that communicate via asynchronous method calls. Distribution suggests that analysis must infer the cost of the diverse distributed components separately. In this thesis we propose a novel object-sensitive cost analysis which, by using the results gathered by a points-to analysis, can keep the cost of the diverse distributed components separate.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

. Este proyecto tiene por objeto el desarrollo y la implantación de un sistema de optimización económica de instalaciones de producción de Régimen Especial, en una compañía eléctrica que representa a este tipo de instalaciones para su participación en los distintos mercados de electricidad. Inicialmente, se analizarán las opciones de participación en los distintos mercados de cada tecnología, en función de la legislación a la que pudieran estar acogidas las instalaciones del Régimen Especial; según tamaño y tipología de instalaciones, características o combustibles utilizados. En segundo lugar, se estudiará la relación entre dichas instalaciones y los distintos organismos reguladores del mercado; la Comisión Nacional de la Energía, el Ministerio de Industria y Turismo, Red Eléctrica de España y el Operador del mercado eléctrico. Posteriormente, se realizará un modelo de análisis estático de la situación actual de los mercados eléctricos, su estructura y funcionamiento, obteniendo para cada tipo de instalación el escenario de optimización de base, a partir del cual se podrá desarrollar el modelo dinámico que permitirá conocer en cualquier momento cuál será la mejor opción técnico-económica para cada tipo de instalación, optimizando así el presupuesto de las instalaciones objeto del estudio. Finalmente, este modelo se implementará en los sistemas de la compañía eléctrica, como una herramienta que permitirá asegurar la optimización en tiempo real a las instalaciones a las que representa en el mercado, optimizando sus propios costes a través de la implementación de este sistema automático y logrando así maximizar los ingresos de la compañía eléctrica. ABSTRACT DEVELOPMENT OF A SYSTEM OF ECONOMIC OPTIMIZATION FOR PLANTS OF SPECIAL REGIME. This project takes as an object the development and the implantation of a system of economic optimization of facilities of production of Special Regime, in an electrical company that it represents to this type of facilities for his participation in the different markets of electricity. Initially, there will be analyzed the options of participation in the different markets of every technology, depending on the legislation to which there could be received the facilities of the Special Regime; according to size and typology of facilities, characteristics or used fuels. Secondly, the relation will be studied between the above mentioned facilities and the different regulatory organisms of the market; the National Commission of the Energy, the Department of Industry and Tourism, Electrical Network of Spain and the Operator of the electrical market. Later, there will carry out a model of static analysis of the current situation of the electrical markets, his structure and functioning, obtaining for every type of installation the scene of base optimization, from which there will be able to develop the dynamic model who will allow to know at any time which will be the best technical - economic option for every type of installation, optimizing this way the budget of the facilities I object of the study. Finally, this model will be implemented in the systems of the electrical company, as a tool that will allow to assure the real time optimization to the facilities to which it represents on the market, optimizing his own costs across the implementation of this automatic system and managing this way to maximize the income of the electrical company.