894 resultados para Many-to-many-assignment problem


Relevância:

100.00% 100.00%

Publicador:

Resumo:

GLOSARIO • Neuromarketing: El Neuromarketing consiste en la aplicación de las técnicas de investigación de las Neurociencias a la investigación de marketing tradicional. A través de técnicas de medición de la actividad cerebral (como el EGG o la fMRI), las “respuestas” de los entrevistados a distintos estímulos (por ejemplo, anuncios publicitarios) son leídas directamente de su actividad cerebral (Neuromarca) • Neurociencia: La neurociencia estudia la estructura y la función química, farmacología, y patología del sistema nervioso y de cómo los diferentes elementos del sistema nervioso interactúan y dan origen a la conducta (Neurologia y ove) • Mercadeo: Según la American Marketing Asociation (A.M.A.), el marketing es una forma de organizar un conjunto de acciones y procesos a la hora de crear un producto “para crear, comunicar y entregar valor a los clientes, y para manejar las relaciones” y su finalidad es beneficiar a la organización satisfaciendo a los clientes (Revista PYM) • Cerebro: Es la parte más evolucionada y grande del encéfalo. En el cerebro se dan la cognición, el pensamiento y las emociones; también la memoria y el lenguaje. Tiene dos hemisferios, cada uno con 4 lóbulos: frontal, temporal, parietal y occipital. La parte más externa es el cortex cerebral, que tiene unos repliegues que forman circunvoluciones y cisuras (Enciclopedia Salud) • Estrategia Empresarial: Es la que define las diferentes líneas de acción que debe asumir cada uno de los individuos que desempeñan las funciones dentro de la misma y permite a toda organización generar una ventaja competitiva en el mercado en el que desenvuelve sus actividades, generando mayores utilidades y permitiendo aprovechar cada una de las oportunidades dándole un valor agregado (Emagister) • Integración sensorial: Es un proceso Neurológico por el cual las sensaciones que provienen de nuestro entornoy de nuestro cuerpo, son organizadas e interpretadas para su uso (Enciclopedia Salud) • Top of Mind: Es el indicador que revela cuál es la marca que, cuando le preguntan por una categoría específica, se le viene a la mente en primer lugar al mayor porcentaje de personas (Gerente) • Valor Agregado: Valor agregado o valor añadido, en términos de marketing, es una característica o servicio extra que se le da a un producto o servicio, con el fin de darle un mayor valor comercial; generalmente se trata de una característica o servicio poco común, o poco usado por los competidores, y que le da al negocio o empresa cierta diferenciación (Crece Negocios)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This article offers a theoretical interpretation of the dispositions on land restitution contained in the famous “Victims’ Bill”, which was debated in the Colombian Congress during the year 2008. The bill included specific mechanisms aimed at guaranteeing the restitution of land to victims of the Colombian armed conflict. At the time, the bill was endorsed by all the main political actors in the country –notably the government and the elites that support it, on the one hand, and victims’ and human rights organizations and other opposition groups, on the other–. The fact that the restitution of land to victims of the Colombian armed conflict was being considered as a serious possibility by all political actors in the country seemed to indicate the existence of a consensus among actors whose positions are ordinarily opposed, on an issue that has traditionally led to high levels of polarization. This consensus is quite puzzling, because it seems to be at odds with the interests and/or the conceptions of justice advocated by these political actors, and because the restitution of land faces enormous difficulties both from a factual and a normative point of view, which indicates that it may not necessarily be the best alternative for dealing with the issue of land distribution in Colombia. This article offers an interpretation of said consensus, arguing that it is only an apparent consensus in which the actors are actually misrepresenting their interests and conceptions of justice, while at the same time adopting divergent strategies of implementation aimed at fulfilling their true interests. Nevertheless, the article concludes that the common adherence by all actors to the principle of restorative justice might bring about its actual realization, and thus produce an outcome that, in spite (and perhaps even because) of being unintended, might substantively contribute to solving the problem of unequal land distribution in Colombia. Even though the article focuses in some detail on the specificities of the 2008 Bill, it attempts to make a general argument about the state of the discussion on how to deal with the issue of land distribution in the country. Consequently, it may still be relevant today, especially considering that a new Bill on land restitution is currently being discussed in Congress, which includes the same restitution goals as the Victims’ Bill and many of its procedural and substantive details, and which therefore seems to reflect a similar consensus to the one analyzed in the article.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Colombia es uno de los principales productores de flores y rosas a nivel mundial y a través de los años ha presentado diversos problemas en la actividad industrial que permite la recolección de rosas. La cosecha y alistamiento del producto se realiza mediante actividades principalmente manuales. El corte de la rosa se efectúa con una herramienta conocida como tijera de poda manual, lo cual ha dado lugar a problemas ergonómicos al efectuar el corte, particularmente evidentes en personas de manos pequeñas, pues la apertura de operación excede la longitud máxima de extensión y capacidad de agarre de la mano, lo que conlleva a esfuerzos y posturas perjudiciales, especialmente desviaciones ulnares/radiales y flexión/extensión pronunciada de muñeca, permitiendo la aparición de lesiones por trauma acumulativo en el conjunto mano-muñeca. Este trabajo evalúa un nuevo diseño de tijera de poda manual concebida para disminuir el problema de posturas perjudiciales de la muñeca en el momento del corte. Se trata de un estudio cuasi-experimental, de observaciones pareadas, que permitió evaluar el nuevo diseño de tijera en condiciones reales de uso durante una fracción de la jornada de trabajo, donde los operarios la pudieron comparar con su tijera convencional y pudieron calificar las características de diseño de cada una de ellas a través de una escala de intervalo con rostros felices a tristes. Factores novedosos como el sistema de agarre con mango rotativo fueron bien aceptados en la nueva tijera, así como la suavidad en el accionamiento. El peso de la nueva herramienta es mayor a la actual y no fue bien aceptado. Personas de mayor edad y con mayor tiempo en el cargo muestran una preferencia hacia la tijera de poda que utilizan actualmente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El trabajo de investigación surge en el año 2001, ante la necesidad de hacer frente a una nueva realidad jurídica, el mobbing. Para ello fue decisivo el estudio de lo publicado (básicamente de ramas ajenas al Derecho) pero sobre todo las entrevistas con las víctimas de mobbing y sus asociaciones; este extremo, unido a la ausencia de un tratamiento internacional, obligó a un camino autodidacta para definir mobbing jurídicamente. La Tesis define mobbing como la presión laboral tendente a la autoeliminación de un trabajador mediante su denigración (presión laboral tendenciosa), y con ello por primera vez se tiene una definición de mobbing en línea y media, con plena validez jurídica, que es susceptible de ser memorizada y por lo tanto divulgada, para corregir el problema. El denominado "concepto uniformado de mobbing" recalca la denigración como mecanismo frente a los tratos degradantes y recalca la autoeliminación como finalidad de un comportamiento doloso. El trabajo aporta fórmulas para deslindar casos de mobbing de otras figuras próximas, y en este sentido debe citarse "la regla del 9" para saber si hay mobbing; en sede de estadísticas se critican metodológicamente muchas de ellas presentadas hasta el momento y se aporta alguna en sede de Tribunales; pero sobre todo se advierte de los riesgos jurídicos de una previsible regulación específica antimobbing, mediante el examen de las distintas definiciones que se han esgrimido hasta el momento. La segunda parte de la Tesis profundiza sobre el grado de sensibilización de nuestro ordenamiento jurídico y Tribunales, a cuyo fin se ha trabajado con más de un centernar y medio de sentencias dictadas sobre la materia, y por supuesto la totalidad de las recogidas en las bases de datos de las editoriales. El análisis sirve para apreciar la bondad de la sistemática aquí defendida, poniendo en evidencia errores, y contradicciones. La Tesis advierte que la presión laboral tendenciosa más allá de vulnerar el derecho constitucional al trabajo, o los derechos fundamentales a la integridad moral y el honor, es una transgresión a todo un "espíritu constitucional", y en este sentido se analiza con detalle tanto la posibilidad de recurrir en amparo, como el derecho a la indemnidad para quien se enfrenta a esta situación. Advirtiendo de las ventajas de efectuar esta reacción mediante la modalidad procesal de tutela de los derechos fundamentales, se analiza la recurrida acción del art.50 ET, donde se realizan aportaciones sugerentes como el plazo prescripción o la "doctrina de los antecedentes", y se otorgan respuestas a las preguntas sobre obligación de seguir trabajando y ejecución provisional. En sede de acciones de Seguridad Social, la Tesis distingue entre la incapacidad temporal y permanente (depresiones) y la muerte y supervivencia, aportándose sobre la primera la técnica denominada "interpretación en tres niveles" y descartando la posibilidad de considerar accidente de trabajo el suicidio tras un mobbing por imperativo legal, pero aportando un sucedáneo bastante razonable como es el accidente no laboral. Junto a ello se razona por la viabilidad del recargo del art.123 LGSS. Civilmente, la Tesis se posiciona de "lege ferenda" por reconducir este tipo de acciones resarcitorias del daño psíquico y moral al orden civil, por una mayor explicación sobre el origen del quantum, pero sobre todo considera inadmisible la STS 11-3-04, y ello por una pluralidad de argumentos, pero sobre todo por cuanto viene a autorizar "de facto" este tipo de conductas. La posibilidad de accionar administrativamente frente a este riesgo psicosocial se analiza en un doble terreno, la empresa y la Administración. Si bien el cauce sobre el primero tiene algunos meandros que se desbelan, la situación es radicalmente frustrante en la Administración -donde se encuentra el mayor caldo de cultivo del mobbing- , y ello por el RD 707/2002, pero todavía en mayor medida por el Criterio Técnico 34/2003 mediante el cual la interpretación del Director General de la Inspección de Trabajo y Seguridad Social ha venido tácitamente a derogar parcialmente la Ley de Prevención de Riesgos Laborales para la Administración. En materia penal, la Tesis se decanta "a priori" por dos tipos penales, los delitos contra los derechos de los trabajadores, y el delito de trato degradante; sin embargo, en la práctica sólo este segundo es el camino que puede alcanzar buen puerto. Finalmente se realiza un estudio detallado de la Ley 62/2003, ley que se divulgó como reguladora del acoso moral, y que después se defiende como un avance frente al mobbing. La Tesis advierte que no es cierto ni lo uno, ni lo otro, habiendo creado un "espejismo legal" que puede perjudicar a las víctimas de mobbing, además de no servir su estructura para una futura regulación explícita antimobbing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis se centra en la Visión por Computador y, más concretamente, en la segmentación de imágenes, la cual es una de las etapas básicas en el análisis de imágenes y consiste en la división de la imagen en un conjunto de regiones visualmente distintas y uniformes considerando su intensidad, color o textura. Se propone una estrategia basada en el uso complementario de la información de región y de frontera durante el proceso de segmentación, integración que permite paliar algunos de los problemas básicos de la segmentación tradicional. La información de frontera permite inicialmente identificar el número de regiones presentes en la imagen y colocar en el interior de cada una de ellas una semilla, con el objetivo de modelar estadísticamente las características de las regiones y definir de esta forma la información de región. Esta información, conjuntamente con la información de frontera, es utilizada en la definición de una función de energía que expresa las propiedades requeridas a la segmentación deseada: uniformidad en el interior de las regiones y contraste con las regiones vecinas en los límites. Un conjunto de regiones activas inician entonces su crecimiento, compitiendo por los píxeles de la imagen, con el objetivo de optimizar la función de energía o, en otras palabras, encontrar la segmentación que mejor se adecua a los requerimientos exprsados en dicha función. Finalmente, todo esta proceso ha sido considerado en una estructura piramidal, lo que nos permite refinar progresivamente el resultado de la segmentación y mejorar su coste computacional. La estrategia ha sido extendida al problema de segmentación de texturas, lo que implica algunas consideraciones básicas como el modelaje de las regiones a partir de un conjunto de características de textura y la extracción de la información de frontera cuando la textura es presente en la imagen. Finalmente, se ha llevado a cabo la extensión a la segmentación de imágenes teniendo en cuenta las propiedades de color y textura. En este sentido, el uso conjunto de técnicas no-paramétricas de estimación de la función de densidad para la descripción del color, y de características textuales basadas en la matriz de co-ocurrencia, ha sido propuesto para modelar adecuadamente y de forma completa las regiones de la imagen. La propuesta ha sido evaluada de forma objetiva y comparada con distintas técnicas de integración utilizando imágenes sintéticas. Además, se han incluido experimentos con imágenes reales con resultados muy positivos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: Selecting the highest quality 3D model of a protein structure from a number of alternatives remains an important challenge in the field of structural bioinformatics. Many Model Quality Assessment Programs (MQAPs) have been developed which adopt various strategies in order to tackle this problem, ranging from the so called "true" MQAPs capable of producing a single energy score based on a single model, to methods which rely on structural comparisons of multiple models or additional information from meta-servers. However, it is clear that no current method can separate the highest accuracy models from the lowest consistently. In this paper, a number of the top performing MQAP methods are benchmarked in the context of the potential value that they add to protein fold recognition. Two novel methods are also described: ModSSEA, which based on the alignment of predicted secondary structure elements and ModFOLD which combines several true MQAP methods using an artificial neural network. Results: The ModSSEA method is found to be an effective model quality assessment program for ranking multiple models from many servers, however further accuracy can be gained by using the consensus approach of ModFOLD. The ModFOLD method is shown to significantly outperform the true MQAPs tested and is competitive with methods which make use of clustering or additional information from multiple servers. Several of the true MQAPs are also shown to add value to most individual fold recognition servers by improving model selection, when applied as a post filter in order to re-rank models. Conclusion: MQAPs should be benchmarked appropriately for the practical context in which they are intended to be used. Clustering based methods are the top performing MQAPs where many models are available from many servers; however, they often do not add value to individual fold recognition servers when limited models are available. Conversely, the true MQAP methods tested can often be used as effective post filters for re-ranking few models from individual fold recognition servers and further improvements can be achieved using a consensus of these methods.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Foundation construction process has been an important key point in a successful construction engineering. The frequency of using diaphragm wall construction method among many deep excavation construction methods in Taiwan is the highest in the world. The traditional view of managing diaphragm wall unit in the sequencing of construction activities is to establish each phase of the sequencing of construction activities by heuristics. However, it conflicts final phase of engineering construction with unit construction and effects planning construction time. In order to avoid this kind of situation, we use management of science in the study of diaphragm wall unit construction to formulate multi-objective combinational optimization problem. Because the characteristic (belong to NP-Complete problem) of problem mathematic model is multi-objective and combining explosive, it is advised that using the 2-type Self-Learning Neural Network (SLNN) to solve the N=12, 24, 36 of diaphragm wall unit in the sequencing of construction activities program problem. In order to compare the liability of the results, this study will use random researching method in comparison with the SLNN. It is found that the testing result of SLNN is superior to random researching method in whether solution-quality or Solving-efficiency.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The evaluation of investment fund performance has been one of the main developments of modern portfolio theory. Most studies employ the technique developed by Jensen (1968) that compares a particular fund's returns to a benchmark portfolio of equal risk. However, the standard measures of fund manager performance are known to suffer from a number of problems in practice. In particular previous studies implicitly assume that the risk level of the portfolio is stationary through the evaluation period. That is unconditional measures of performance do not account for the fact that risk and expected returns may vary with the state of the economy. Therefore many of the problems encountered in previous performance studies reflect the inability of traditional measures to handle the dynamic behaviour of returns. As a consequence Ferson and Schadt (1996) suggest an approach to performance evaluation called conditional performance evaluation which is designed to address this problem. This paper utilises such a conditional measure of performance on a sample of 27 UK property funds, over the period 1987-1998. The results of which suggest that once the time varying nature of the funds beta is corrected for, by the addition of the market indicators, the average fund performance show an improvement over that of the traditional methods of analysis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Feedback design for a second-order control system leads to an eigenstructure assignment problem for a quadratic matrix polynomial. It is desirable that the feedback controller not only assigns specified eigenvalues to the second-order closed loop system but also that the system is robust, or insensitive to perturbations. We derive here new sensitivity measures, or condition numbers, for the eigenvalues of the quadratic matrix polynomial and define a measure of the robustness of the corresponding system. We then show that the robustness of the quadratic inverse eigenvalue problem can be achieved by solving a generalized linear eigenvalue assignment problem subject to structured perturbations. Numerically reliable methods for solving the structured generalized linear problem are developed that take advantage of the special properties of the system in order to minimize the computational work required. In this part of the work we treat the case where the leading coefficient matrix in the quadratic polynomial is nonsingular, which ensures that the polynomial is regular. In a second part, we will examine the case where the open loop matrix polynomial is not necessarily regular.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The solution of the pole assignment problem by feedback in singular systems is parameterized and conditions are given which guarantee the regularity and maximal degree of the closed loop pencil. A robustness measure is defined, and numerical procedures are described for selecting the free parameters in the feedback to give optimal robustness.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Normal Quantile Transform (NQT) has been used in many hydrological and meteorological applications in order to make the Cumulated Distribution Function (CDF) of the observed, simulated and forecast river discharge, water level or precipitation data Gaussian. It is also the heart of the meta-Gaussian model for assessing the total predictive uncertainty of the Hydrological Uncertainty Processor (HUP) developed by Krzysztofowicz. In the field of geo-statistics this transformation is better known as the Normal-Score Transform. In this paper some possible problems caused by small sample sizes when applying the NQT in flood forecasting systems will be discussed and a novel way to solve the problem will be outlined by combining extreme value analysis and non-parametric regression methods. The method will be illustrated by examples of hydrological stream-flow forecasts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The performance of real estate investment markets is difficult to monitor because the constituent assets are heterogeneous, are traded infrequently and do not trade through a central exchange in which prices can be observed. To address this, appraisal based indices have been developed that use the records of owners for whom buildings are regularly re-valued. These indices provide a practical solution to the measurement problem, but have been criticised for understating volatility and not capturing market turning points in a timely manner. This paper evaluates alternative ‘Transaction Linked Indices’ that are estimated using an extension of the hedonic method for index construction and with Investment Property Databank data. The two types of indices are compared over Q4 2001 to Q4 2012 in order to examine whether movements in these indices are consistent. The Transaction Linked Indices show stronger growth and sharper declines than their appraisal based counterparts over the course of the cycle in different European markets and they are typically two to four times more volatile. However, they have some limitations; for instance, only country level indicators can be published in many cases owing to low trading volumes in the period studied.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A key step in many numerical schemes for time-dependent partial differential equations with moving boundaries is to rescale the problem to a fixed numerical mesh. An alternative approach is to use a moving mesh that can be adapted to focus on specific features of the model. In this paper we present and discuss two different velocity-based moving mesh methods applied to a two-phase model of avascular tumour growth formulated by Breward et al. (2002) J. Math. Biol. 45(2), 125-152. Each method has one moving node which tracks the moving boundary. The first moving mesh method uses a mesh velocity proportional to the boundary velocity. The second moving mesh method uses local conservation of volume fraction of cells (masses). Our results demonstrate that these moving mesh methods produce accurate results, offering higher resolution where desired whilst preserving the balance of fluxes and sources in the governing equations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

For many learning tasks the duration of the data collection can be greater than the time scale for changes of the underlying data distribution. The question we ask is how to include the information that data are aging. Ad hoc methods to achieve this include the use of validity windows that prevent the learning machine from making inferences based on old data. This introduces the problem of how to define the size of validity windows. In this brief, a new adaptive Bayesian inspired algorithm is presented for learning drifting concepts. It uses the analogy of validity windows in an adaptive Bayesian way to incorporate changes in the data distribution over time. We apply a theoretical approach based on information geometry to the classification problem and measure its performance in simulations. The uncertainty about the appropriate size of the memory windows is dealt with in a Bayesian manner by integrating over the distribution of the adaptive window size. Thus, the posterior distribution of the weights may develop algebraic tails. The learning algorithm results from tracking the mean and variance of the posterior distribution of the weights. It was found that the algebraic tails of this posterior distribution give the learning algorithm the ability to cope with an evolving environment by permitting the escape from local traps.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper we consider the case of a Bose gas in low dimension in order to illustrate the applicability of a method that allows us to construct analytical relations, valid for a broad range of coupling parameters, for a function which asymptotic expansions are known. The method is well suitable to investigate the problem of stability of a collection of Bose particles trapped in one- dimensional configuration for the case where the scattering length presents a negative value. The eigenvalues for this interacting quantum one-dimensional many particle system become negative when the interactions overcome the trapping energy and, in this case, the system becomes unstable. Here we calculate the critical coupling parameter and apply for the case of Lithium atoms obtaining the critical number of particles for the limit of stability.