27 resultados para Divide
Resumo:
260 p.: graf.
Resumo:
[EN] The purpose of this paper is to present a theoretical overview of innovation management and the tools that can aid in this endeavour. The paper adopts a user-oriented description, aiming at making SMEs familiar with the possibilities opened by innovation management tools in general and technology outlook in particular.
Resumo:
149 p. : il. col.
Resumo:
120 p : il. col.
Resumo:
El trabajo analiza las políticas de cooperación al desarrollo llevadas a cabo por las principales instituciones públicas del País Vasco durante los últimos 25 años. Para este propósito, el estudio se divide en dos grandes apartados. El primero se centra en el examen del diseño de dichas políticas, mientras que el segundo está orientado al análisis de la manera en que las mismas se han llevado a la práctica. Para ello, se han estudiado más de 300 documentos de siete administraciones de la CAPV y casi 7.000 intervenciones financiadas por ellas.
Resumo:
Duración (en horas): De 41 a 50 horas. Destinatario: Estudiante y Docente
Resumo:
Duración (en horas): Más de 50 horas. Destinatario: Estudiante
Resumo:
Computer vision algorithms that use color information require color constant images to operate correctly. Color constancy of the images is usually achieved in two steps: first the illuminant is detected and then image is transformed with the chromatic adaptation transform ( CAT). Existing CAT methods use a single transformation matrix for all the colors of the input image. The method proposed in this paper requires multiple corresponding color pairs between source and target illuminants given by patches of the Macbeth color checker. It uses Delaunay triangulation to divide the color gamut of the input image into small triangles. Each color of the input image is associated with the triangle containing the color point and transformed with a full linear model associated with the triangle. Full linear model is used because diagonal models are known to be inaccurate if channel color matching functions do not have narrow peaks. Objective evaluation showed that the proposed method outperforms existing CAT methods by more than 21%; that is, it performs statistically significantly better than other existing methods.
Resumo:
566 p.
Resumo:
The learning of probability distributions from data is a ubiquitous problem in the fields of Statistics and Artificial Intelligence. During the last decades several learning algorithms have been proposed to learn probability distributions based on decomposable models due to their advantageous theoretical properties. Some of these algorithms can be used to search for a maximum likelihood decomposable model with a given maximum clique size, k, which controls the complexity of the model. Unfortunately, the problem of learning a maximum likelihood decomposable model given a maximum clique size is NP-hard for k > 2. In this work, we propose a family of algorithms which approximates this problem with a computational complexity of O(k · n^2 log n) in the worst case, where n is the number of implied random variables. The structures of the decomposable models that solve the maximum likelihood problem are called maximal k-order decomposable graphs. Our proposals, called fractal trees, construct a sequence of maximal i-order decomposable graphs, for i = 2, ..., k, in k − 1 steps. At each step, the algorithms follow a divide-and-conquer strategy based on the particular features of this type of structures. Additionally, we propose a prune-and-graft procedure which transforms a maximal k-order decomposable graph into another one, increasing its likelihood. We have implemented two particular fractal tree algorithms called parallel fractal tree and sequential fractal tree. These algorithms can be considered a natural extension of Chow and Liu’s algorithm, from k = 2 to arbitrary values of k. Both algorithms have been compared against other efficient approaches in artificial and real domains, and they have shown a competitive behavior to deal with the maximum likelihood problem. Due to their low computational complexity they are especially recommended to deal with high dimensional domains.
Resumo:
909 p.
Resumo:
Nivel educativo: Grado. Duración (en horas): Más de 50 horas
Resumo:
A lo largo del siglo XX han sucedido un gran número de crisis financieras, y muchas de las que surgieron en épocas pasadas siguen teniendo repercusión en el contexto económico-financiero actual. En muchos aspectos, la crisis actual no ha sido muy diferente de acontecimientos que hemos visto en los mercados emergentes durante la última década, ya que vemos que se dan circunstancias similares en los comportamientos económicos y financieros que desembocan en las crisis. En este contexto, el objetivo principal de este estudio es identificar las causas comunes a los episodios de crisis más relevantes que han precedido a la crisis financiera actual y compararlos con los factores desencadenantes de ésta. Para ello, la metodología empleada es la analítico-sintética, que consiste en analizar el fenómeno objeto de estudio y sintetizarlo para obtener, finalmente, una serie de conclusiones. Las conclusiones de este trabajo señalan la existencia de dos clasificaciones de crisis en base a la literatura teórica: la primera, que las divide en bancarias, monetarias y financieras; y la segunda, que distingue entre modelos teóricos de Primera, Segunda y Tercera Generación. Todas ellas presentan además unas causas comunes que también han sido explicativas del episodio de crisis que estamos padeciendo actualmente.
Resumo:
A lo largo de este trabajo, realizaremos un diagnóstico de las relaciones con clientes y de las estrategias de marketing en mercados industriales. Para ello, dividimos el trabajo en dos grandes partes y lo cerramos con unas conclusiones globales. La primera parte, el marco teórico, se ha elaborado tras la revisión crítica de la bibliografía referenciada al final del trabajo y el conocimiento adquirido en las sesiones magistrales de la asignatura Marketing Industrial de 4º curso del Grado en Marketing, impartida por la profesora Mª Soledad Aguirre, a las que asistí como oyente puesto que yo no soy alumno de dicho grado. En la segunda parte, el estudio empírico, realizamos un análisis de nueve empresas y organizaciones vascas (a excepción de una de ellas) que mantienen relaciones comerciales esencialmente del tipo Business to Business, que es lo que en la bibliografía que hemos trabajado se entiende por relaciones comerciales propias de Mercados Industriales. No se habla tanto de productos industriales como de clientes industriales o empresariales (relaciones empresa-empresa). Para ello, hemos utilizado como método de análisis y contraste el Método del Caso. Por último, concluimos el trabajo con la enumeración de las principales conclusiones extraídas de nuestra investigación y con la relación de la Bibliografía y Webgrafía consultada.
Resumo:
[EU]Komunikabideetan hainbesteko oihartzuna izan zuen eta saldu edo alokatutako etxebizitzak energia eraginkortasunaren ziurtagiria izatera derrigortzen zituen dekretuak urtebete eskas bete du. Proiektu honetan aipatutako legea 2020. urterako ezarritako europar helburu energetikoak betetzeko bidean kokatu egiten da, ziurtapenerako jarraitu beharreko metodologian gehiago sakonduz eta aipaturiko helburuentzako duen garrantzia azpimarratuz. Proiektuak bi zati nagusi ditu. Lehenengo zatian, proiektuaren helburu nagusia den etxebizitza baten kalifikazio energetikoa burutzen da, G letrako kalifikaziorik baxuena lortuz. Ondoren, kalifikatutako etxebizitzaren energia eraginkortasuna hobetzeko neurri posible batzuek bideragarritasuna aztertzen da. E letra erraztasun nahikoz lor daiteke, inbertsioaren berreskuratze aldi oso onargarriekin. C letraraino igotzea ere posible da aztertutako neurriak bateratuz, baina berreskuratze aldiak handiagoak izango lirateke.