919 resultados para Many-to-many-assignment problem
Resumo:
Nachdem sich in der Kolonialkrise von 1906 das Scheitern der ersten Periode deutscher Kolonialherrschaft (1885-1906) offenbarte, wurde Bernhard Dernburg die grundlegende Reorganisation der Kolonialpolitik anvertraut. Als Mann aus der Welt der Banken und Finanzen sollte er die stagnierende Entwicklung der Kolonien mit Hilfe von administrativen und wirtschaftlichen Reformmaßnahmen vorantreiben und gleichzeitig der indigenen Bevölkerung eine humane Behandlung zu garantieren. Um diese Ziele zu erreichen, verabschiedete er Reformen, die eine Rationalisierung und Humanisierung der Arbeiterpolitik vorsahen. Sowohl in der zeitgenössischen Literatur als auch in der aktuellen wissenschaftlichen Forschung wird der Amtsantritt Bernhard Dernburgs zum Leiter der Kolonialabteilung im Jahre 1906 als der „Beginn einer neuen humanen Ära“ deutscher Kolonialpolitik oder als „Wandel zum Besseren“ bezeichnet. Die Dissertation „Schwarzer Untertan versus Schwarzer Bruder. Bernhard Dernburgs Reformen in den Kolonien Deutsch-Ostafrika, Deutsch-Südwestafrika, Togo und Kamerun“ untersucht die Intention, Akzeptanz, Umsetzung und Auswirkung der reformatorischen Eingeborenenpolitik und klärt, ob die Beurteilung der Ära Dernburg (1906-1910) in der zeitgenössischen und aktuellen Forschung eine Berechtigung hat. Obwohl zumindest in der Theorie sein Konzept einer rationalen und humanen Kolonialpolitik sicherlich eine Abkehr von der bisher betriebenen Kolonialpolitik bedeutete, zeigt sich jedoch bei der Umsetzung der Reformen eine deutliche Diskrepanz zwischen Intention und Realität. Auch wenn zumindest die Bestrebung Dernburgs zur Verrechtlichung der indigenen Arbeitsverhältnisse gewürdigt werden sollte, so muss doch konstatiert werden, dass es in der „Ära Dernburg“ definitiv nicht zu einer grundlegenden Verbesserung der indigenen Lebenssituation in den deutschen Kolonien kam. Im Gegenteil, die Dernburgsche Reformpolitik beschleunigte vielmehr den Verelendungsprozess der indigenen Bevölkerung. In allen afrikanischen Kolonien verschlechterten sich mit der Intensivierung der Verwaltung die sozialen und menschlichen Beziehungen zwischen Afrikanern und Europäern. Vieles von dem, was Dernburg in seinem Programm propagierte, konnte nicht erreicht werden. Zwar führte Dernburg in Deutsch-Ostafrika, Deutsch-Südwestafrika und in Kamerun eine rechtlich bindende Arbeiterverordnung ein, jedoch unterschieden sich die Bestimmungen zum Teil erheblich voneinander, so dass von einer einheitlichen Modernisierung des kolonialen Arbeitsrechts nicht die Rede sein kann. Viele arbeitsrechtliche Bereiche, wie z.B. die Arbeiteranwerbung, Lohnzahlung, Minderjährigenschutz, Vertragsdauer, Arbeitszeit, Verpflegung und Unterkunft wurden nur unzureichend geregelt. Ähnlich negativ muss auch die Reformierung der Strafrechtspflege bewertet werden. Die Kodifizierung eines Eingeborenenstrafrechts scheiterte sowohl am Widerstand der lokalen Verwaltung als auch am Grundkonsens der Rechtmäßigkeit einer Rassenjustiz. Kolonialpolitik war auch in der „Ära Dernburg“ nichts anderes als „rohe Ausbeutungspolitik“, die zur Lösung der Arbeiterfrage beitragen sollte. Aber gerade hier, bei der Mobilisierung von afrikanischen Lohnarbeitern, war der Kolonialstaatssekretär nicht etwa mit einer „Arbeiterfürsorgepolitik“, sondern mit der Fortführung der Enteignungs- und Zwangsmaßnahmen erfolgreich gewesen. Insgesamt ist ein deutlicher Anstieg an afrikanischen Arbeitern in europäischen Unternehmen zu verzeichnen, was darauf schließen lässt, dass Dernburgs Verordnungen einen günstigen Einfluss auf die Arbeiterfrage ausgeübt haben. Obwohl nicht von einem grundlegenden Neuanfang der Kolonialpolitik gesprochen werden kann, sollte ebenso wenig bezweifelt werden, dass sich die deutsche Kolonialpolitik nicht unter Dernburg veränderte. Größere indigene Aufstände und Unruhen blieben aus, so dass während seiner Amtszeit eine systematische wirtschaftliche Erschließung der Kolonien beginnen konnte.
Resumo:
This report explores how recurrent neural networks can be exploited for learning high-dimensional mappings. Since recurrent networks are as powerful as Turing machines, an interesting question is how recurrent networks can be used to simplify the problem of learning from examples. The main problem with learning high-dimensional functions is the curse of dimensionality which roughly states that the number of examples needed to learn a function increases exponentially with input dimension. This thesis proposes a way of avoiding this problem by using a recurrent network to decompose a high-dimensional function into many lower dimensional functions connected in a feedback loop.
Resumo:
The image comparison operation ??sessing how well one image matches another ??rms a critical component of many image analysis systems and models of human visual processing. Two norms used commonly for this purpose are L1 and L2, which are specific instances of the Minkowski metric. However, there is often not a principled reason for selecting one norm over the other. One way to address this problem is by examining whether one metric better captures the perceptual notion of image similarity than the other. With this goal, we examined perceptual preferences for images retrieved on the basis of the L1 versus the L2 norm. These images were either small fragments without recognizable content, or larger patterns with recognizable content created via vector quantization. In both conditions the subjects showed a consistent preference for images matched using the L1 metric. These results suggest that, in the domain of natural images of the kind we have used, the L1 metric may better capture human notions of image similarity.
Resumo:
Our essay aims at studying suitable statistical methods for the clustering of compositional data in situations where observations are constituted by trajectories of compositional data, that is, by sequences of composition measurements along a domain. Observed trajectories are known as “functional data” and several methods have been proposed for their analysis. In particular, methods for clustering functional data, known as Functional Cluster Analysis (FCA), have been applied by practitioners and scientists in many fields. To our knowledge, FCA techniques have not been extended to cope with the problem of clustering compositional data trajectories. In order to extend FCA techniques to the analysis of compositional data, FCA clustering techniques have to be adapted by using a suitable compositional algebra. The present work centres on the following question: given a sample of compositional data trajectories, how can we formulate a segmentation procedure giving homogeneous classes? To address this problem we follow the steps described below. First of all we adapt the well-known spline smoothing techniques in order to cope with the smoothing of compositional data trajectories. In fact, an observed curve can be thought of as the sum of a smooth part plus some noise due to measurement errors. Spline smoothing techniques are used to isolate the smooth part of the trajectory: clustering algorithms are then applied to these smooth curves. The second step consists in building suitable metrics for measuring the dissimilarity between trajectories: we propose a metric that accounts for difference in both shape and level, and a metric accounting for differences in shape only. A simulation study is performed in order to evaluate the proposed methodologies, using both hierarchical and partitional clustering algorithm. The quality of the obtained results is assessed by means of several indices
Resumo:
El Crimen Organizado se ha convertido en uno de los temas principales en materia de Seguridad Internacional en la medida en que el proceso de globalización que impulsa la interacción entre lo local y lo global, le ha permitido aprovecharse y lucrarse, interfiriendo principalmente en la seguridad económica y política de algunos Estados. La Mafia Siciliana como exponente del Crimen Organizado, es el caso de estudio que permite conocer a través de sus características, evolución y comportamiento, cómo a lo largo de la historia ha tenido influencia en diferentes ámbitos de algunos Estados. Detectar esta amenaza criminal, ha generado una reacción por parte de los Estados, la cual ha permitido que se creen instrumentos jurídicos que contrarresten el problema. Sin embargo, nuevas amenazas identificadas como el terrorismo, han desplazado la concentración que se tenía sobre el Crimen Organizado y ha permitido que organizaciones criminales como la Mafia Siciliana se fortalezca y opere desde la ilegalidad dentro la legalidad.
Resumo:
La Teoría de la Acción Humana desarrollada por Antanas Mockus, parte del principio de que la acción humana es multimotivada y multiregulada. Entre las multiples regulaciones se encuentran los Sistemas de Regulación Social Ley, Moral y Cultura quienes en cierta medida explican el accionar y la interacción social. No obstante dado que la sociedad contemporánea se caracteriza por ubicarse en un contexto intercultural de contactos y fricciones permanentes, entre distintas perspectivas culturales en distintos grados de hibridación, el divorcio entre los sistemas regulatorios parece inevitable. Entendiendo al Espacio Público habermasiano ya no reservado únicamente a los actores institucionales, sino a la sociedad civil y los medios masivos. Es en este nuevo espacio deliberativo donde el Anfibio Cultural se desenvuelve a fin de resolver la problemática del divorcio entre los sistemas regulatorios. El anfibio valiéndose de sus herramientas camaleónicas y traductoras buscará por vías dialógicas la reducción así sea parcial, a mínimos aceptables de discusión e interrelación cultural. La imagen articulada a un mecanismo cultural por un lado reconstruye realidades pero por el otro alimenta el ciclo de producción y aceptación de imaginarios colectivos. De esta manera la presente investigación propone evidenciar los conceptos de Mockus en el desarrollo de una producción audiovisual, así como también realiza un aporte conceptual a la teoría al incluir la Dialéctica del Reconocimiento como una herramienta eficaz a la hora de buscar generar acuerdos. La presente investigación propone evidenciar cómo a partir del análisis de una producción audiovisual se promueven valores, cultural, ideas y costumbres que incentivan tanto el divorcio como la armonización entre los sistemas regulatorios.
Resumo:
GLOSARIO • Neuromarketing: El Neuromarketing consiste en la aplicación de las técnicas de investigación de las Neurociencias a la investigación de marketing tradicional. A través de técnicas de medición de la actividad cerebral (como el EGG o la fMRI), las “respuestas” de los entrevistados a distintos estímulos (por ejemplo, anuncios publicitarios) son leídas directamente de su actividad cerebral (Neuromarca) • Neurociencia: La neurociencia estudia la estructura y la función química, farmacología, y patología del sistema nervioso y de cómo los diferentes elementos del sistema nervioso interactúan y dan origen a la conducta (Neurologia y ove) • Mercadeo: Según la American Marketing Asociation (A.M.A.), el marketing es una forma de organizar un conjunto de acciones y procesos a la hora de crear un producto “para crear, comunicar y entregar valor a los clientes, y para manejar las relaciones” y su finalidad es beneficiar a la organización satisfaciendo a los clientes (Revista PYM) • Cerebro: Es la parte más evolucionada y grande del encéfalo. En el cerebro se dan la cognición, el pensamiento y las emociones; también la memoria y el lenguaje. Tiene dos hemisferios, cada uno con 4 lóbulos: frontal, temporal, parietal y occipital. La parte más externa es el cortex cerebral, que tiene unos repliegues que forman circunvoluciones y cisuras (Enciclopedia Salud) • Estrategia Empresarial: Es la que define las diferentes líneas de acción que debe asumir cada uno de los individuos que desempeñan las funciones dentro de la misma y permite a toda organización generar una ventaja competitiva en el mercado en el que desenvuelve sus actividades, generando mayores utilidades y permitiendo aprovechar cada una de las oportunidades dándole un valor agregado (Emagister) • Integración sensorial: Es un proceso Neurológico por el cual las sensaciones que provienen de nuestro entornoy de nuestro cuerpo, son organizadas e interpretadas para su uso (Enciclopedia Salud) • Top of Mind: Es el indicador que revela cuál es la marca que, cuando le preguntan por una categoría específica, se le viene a la mente en primer lugar al mayor porcentaje de personas (Gerente) • Valor Agregado: Valor agregado o valor añadido, en términos de marketing, es una característica o servicio extra que se le da a un producto o servicio, con el fin de darle un mayor valor comercial; generalmente se trata de una característica o servicio poco común, o poco usado por los competidores, y que le da al negocio o empresa cierta diferenciación (Crece Negocios)
Resumo:
This article offers a theoretical interpretation of the dispositions on land restitution contained in the famous “Victims’ Bill”, which was debated in the Colombian Congress during the year 2008. The bill included specific mechanisms aimed at guaranteeing the restitution of land to victims of the Colombian armed conflict. At the time, the bill was endorsed by all the main political actors in the country –notably the government and the elites that support it, on the one hand, and victims’ and human rights organizations and other opposition groups, on the other–. The fact that the restitution of land to victims of the Colombian armed conflict was being considered as a serious possibility by all political actors in the country seemed to indicate the existence of a consensus among actors whose positions are ordinarily opposed, on an issue that has traditionally led to high levels of polarization. This consensus is quite puzzling, because it seems to be at odds with the interests and/or the conceptions of justice advocated by these political actors, and because the restitution of land faces enormous difficulties both from a factual and a normative point of view, which indicates that it may not necessarily be the best alternative for dealing with the issue of land distribution in Colombia. This article offers an interpretation of said consensus, arguing that it is only an apparent consensus in which the actors are actually misrepresenting their interests and conceptions of justice, while at the same time adopting divergent strategies of implementation aimed at fulfilling their true interests. Nevertheless, the article concludes that the common adherence by all actors to the principle of restorative justice might bring about its actual realization, and thus produce an outcome that, in spite (and perhaps even because) of being unintended, might substantively contribute to solving the problem of unequal land distribution in Colombia. Even though the article focuses in some detail on the specificities of the 2008 Bill, it attempts to make a general argument about the state of the discussion on how to deal with the issue of land distribution in the country. Consequently, it may still be relevant today, especially considering that a new Bill on land restitution is currently being discussed in Congress, which includes the same restitution goals as the Victims’ Bill and many of its procedural and substantive details, and which therefore seems to reflect a similar consensus to the one analyzed in the article.
Resumo:
Colombia es uno de los principales productores de flores y rosas a nivel mundial y a través de los años ha presentado diversos problemas en la actividad industrial que permite la recolección de rosas. La cosecha y alistamiento del producto se realiza mediante actividades principalmente manuales. El corte de la rosa se efectúa con una herramienta conocida como tijera de poda manual, lo cual ha dado lugar a problemas ergonómicos al efectuar el corte, particularmente evidentes en personas de manos pequeñas, pues la apertura de operación excede la longitud máxima de extensión y capacidad de agarre de la mano, lo que conlleva a esfuerzos y posturas perjudiciales, especialmente desviaciones ulnares/radiales y flexión/extensión pronunciada de muñeca, permitiendo la aparición de lesiones por trauma acumulativo en el conjunto mano-muñeca. Este trabajo evalúa un nuevo diseño de tijera de poda manual concebida para disminuir el problema de posturas perjudiciales de la muñeca en el momento del corte. Se trata de un estudio cuasi-experimental, de observaciones pareadas, que permitió evaluar el nuevo diseño de tijera en condiciones reales de uso durante una fracción de la jornada de trabajo, donde los operarios la pudieron comparar con su tijera convencional y pudieron calificar las características de diseño de cada una de ellas a través de una escala de intervalo con rostros felices a tristes. Factores novedosos como el sistema de agarre con mango rotativo fueron bien aceptados en la nueva tijera, así como la suavidad en el accionamiento. El peso de la nueva herramienta es mayor a la actual y no fue bien aceptado. Personas de mayor edad y con mayor tiempo en el cargo muestran una preferencia hacia la tijera de poda que utilizan actualmente.
Resumo:
El trabajo de investigación surge en el año 2001, ante la necesidad de hacer frente a una nueva realidad jurídica, el mobbing. Para ello fue decisivo el estudio de lo publicado (básicamente de ramas ajenas al Derecho) pero sobre todo las entrevistas con las víctimas de mobbing y sus asociaciones; este extremo, unido a la ausencia de un tratamiento internacional, obligó a un camino autodidacta para definir mobbing jurídicamente. La Tesis define mobbing como la presión laboral tendente a la autoeliminación de un trabajador mediante su denigración (presión laboral tendenciosa), y con ello por primera vez se tiene una definición de mobbing en línea y media, con plena validez jurídica, que es susceptible de ser memorizada y por lo tanto divulgada, para corregir el problema. El denominado "concepto uniformado de mobbing" recalca la denigración como mecanismo frente a los tratos degradantes y recalca la autoeliminación como finalidad de un comportamiento doloso. El trabajo aporta fórmulas para deslindar casos de mobbing de otras figuras próximas, y en este sentido debe citarse "la regla del 9" para saber si hay mobbing; en sede de estadísticas se critican metodológicamente muchas de ellas presentadas hasta el momento y se aporta alguna en sede de Tribunales; pero sobre todo se advierte de los riesgos jurídicos de una previsible regulación específica antimobbing, mediante el examen de las distintas definiciones que se han esgrimido hasta el momento. La segunda parte de la Tesis profundiza sobre el grado de sensibilización de nuestro ordenamiento jurídico y Tribunales, a cuyo fin se ha trabajado con más de un centernar y medio de sentencias dictadas sobre la materia, y por supuesto la totalidad de las recogidas en las bases de datos de las editoriales. El análisis sirve para apreciar la bondad de la sistemática aquí defendida, poniendo en evidencia errores, y contradicciones. La Tesis advierte que la presión laboral tendenciosa más allá de vulnerar el derecho constitucional al trabajo, o los derechos fundamentales a la integridad moral y el honor, es una transgresión a todo un "espíritu constitucional", y en este sentido se analiza con detalle tanto la posibilidad de recurrir en amparo, como el derecho a la indemnidad para quien se enfrenta a esta situación. Advirtiendo de las ventajas de efectuar esta reacción mediante la modalidad procesal de tutela de los derechos fundamentales, se analiza la recurrida acción del art.50 ET, donde se realizan aportaciones sugerentes como el plazo prescripción o la "doctrina de los antecedentes", y se otorgan respuestas a las preguntas sobre obligación de seguir trabajando y ejecución provisional. En sede de acciones de Seguridad Social, la Tesis distingue entre la incapacidad temporal y permanente (depresiones) y la muerte y supervivencia, aportándose sobre la primera la técnica denominada "interpretación en tres niveles" y descartando la posibilidad de considerar accidente de trabajo el suicidio tras un mobbing por imperativo legal, pero aportando un sucedáneo bastante razonable como es el accidente no laboral. Junto a ello se razona por la viabilidad del recargo del art.123 LGSS. Civilmente, la Tesis se posiciona de "lege ferenda" por reconducir este tipo de acciones resarcitorias del daño psíquico y moral al orden civil, por una mayor explicación sobre el origen del quantum, pero sobre todo considera inadmisible la STS 11-3-04, y ello por una pluralidad de argumentos, pero sobre todo por cuanto viene a autorizar "de facto" este tipo de conductas. La posibilidad de accionar administrativamente frente a este riesgo psicosocial se analiza en un doble terreno, la empresa y la Administración. Si bien el cauce sobre el primero tiene algunos meandros que se desbelan, la situación es radicalmente frustrante en la Administración -donde se encuentra el mayor caldo de cultivo del mobbing- , y ello por el RD 707/2002, pero todavía en mayor medida por el Criterio Técnico 34/2003 mediante el cual la interpretación del Director General de la Inspección de Trabajo y Seguridad Social ha venido tácitamente a derogar parcialmente la Ley de Prevención de Riesgos Laborales para la Administración. En materia penal, la Tesis se decanta "a priori" por dos tipos penales, los delitos contra los derechos de los trabajadores, y el delito de trato degradante; sin embargo, en la práctica sólo este segundo es el camino que puede alcanzar buen puerto. Finalmente se realiza un estudio detallado de la Ley 62/2003, ley que se divulgó como reguladora del acoso moral, y que después se defiende como un avance frente al mobbing. La Tesis advierte que no es cierto ni lo uno, ni lo otro, habiendo creado un "espejismo legal" que puede perjudicar a las víctimas de mobbing, además de no servir su estructura para una futura regulación explícita antimobbing.
Resumo:
La tesis se centra en la Visión por Computador y, más concretamente, en la segmentación de imágenes, la cual es una de las etapas básicas en el análisis de imágenes y consiste en la división de la imagen en un conjunto de regiones visualmente distintas y uniformes considerando su intensidad, color o textura. Se propone una estrategia basada en el uso complementario de la información de región y de frontera durante el proceso de segmentación, integración que permite paliar algunos de los problemas básicos de la segmentación tradicional. La información de frontera permite inicialmente identificar el número de regiones presentes en la imagen y colocar en el interior de cada una de ellas una semilla, con el objetivo de modelar estadísticamente las características de las regiones y definir de esta forma la información de región. Esta información, conjuntamente con la información de frontera, es utilizada en la definición de una función de energía que expresa las propiedades requeridas a la segmentación deseada: uniformidad en el interior de las regiones y contraste con las regiones vecinas en los límites. Un conjunto de regiones activas inician entonces su crecimiento, compitiendo por los píxeles de la imagen, con el objetivo de optimizar la función de energía o, en otras palabras, encontrar la segmentación que mejor se adecua a los requerimientos exprsados en dicha función. Finalmente, todo esta proceso ha sido considerado en una estructura piramidal, lo que nos permite refinar progresivamente el resultado de la segmentación y mejorar su coste computacional. La estrategia ha sido extendida al problema de segmentación de texturas, lo que implica algunas consideraciones básicas como el modelaje de las regiones a partir de un conjunto de características de textura y la extracción de la información de frontera cuando la textura es presente en la imagen. Finalmente, se ha llevado a cabo la extensión a la segmentación de imágenes teniendo en cuenta las propiedades de color y textura. En este sentido, el uso conjunto de técnicas no-paramétricas de estimación de la función de densidad para la descripción del color, y de características textuales basadas en la matriz de co-ocurrencia, ha sido propuesto para modelar adecuadamente y de forma completa las regiones de la imagen. La propuesta ha sido evaluada de forma objetiva y comparada con distintas técnicas de integración utilizando imágenes sintéticas. Además, se han incluido experimentos con imágenes reales con resultados muy positivos.
Resumo:
Background: Selecting the highest quality 3D model of a protein structure from a number of alternatives remains an important challenge in the field of structural bioinformatics. Many Model Quality Assessment Programs (MQAPs) have been developed which adopt various strategies in order to tackle this problem, ranging from the so called "true" MQAPs capable of producing a single energy score based on a single model, to methods which rely on structural comparisons of multiple models or additional information from meta-servers. However, it is clear that no current method can separate the highest accuracy models from the lowest consistently. In this paper, a number of the top performing MQAP methods are benchmarked in the context of the potential value that they add to protein fold recognition. Two novel methods are also described: ModSSEA, which based on the alignment of predicted secondary structure elements and ModFOLD which combines several true MQAP methods using an artificial neural network. Results: The ModSSEA method is found to be an effective model quality assessment program for ranking multiple models from many servers, however further accuracy can be gained by using the consensus approach of ModFOLD. The ModFOLD method is shown to significantly outperform the true MQAPs tested and is competitive with methods which make use of clustering or additional information from multiple servers. Several of the true MQAPs are also shown to add value to most individual fold recognition servers by improving model selection, when applied as a post filter in order to re-rank models. Conclusion: MQAPs should be benchmarked appropriately for the practical context in which they are intended to be used. Clustering based methods are the top performing MQAPs where many models are available from many servers; however, they often do not add value to individual fold recognition servers when limited models are available. Conversely, the true MQAP methods tested can often be used as effective post filters for re-ranking few models from individual fold recognition servers and further improvements can be achieved using a consensus of these methods.
Resumo:
Foundation construction process has been an important key point in a successful construction engineering. The frequency of using diaphragm wall construction method among many deep excavation construction methods in Taiwan is the highest in the world. The traditional view of managing diaphragm wall unit in the sequencing of construction activities is to establish each phase of the sequencing of construction activities by heuristics. However, it conflicts final phase of engineering construction with unit construction and effects planning construction time. In order to avoid this kind of situation, we use management of science in the study of diaphragm wall unit construction to formulate multi-objective combinational optimization problem. Because the characteristic (belong to NP-Complete problem) of problem mathematic model is multi-objective and combining explosive, it is advised that using the 2-type Self-Learning Neural Network (SLNN) to solve the N=12, 24, 36 of diaphragm wall unit in the sequencing of construction activities program problem. In order to compare the liability of the results, this study will use random researching method in comparison with the SLNN. It is found that the testing result of SLNN is superior to random researching method in whether solution-quality or Solving-efficiency.
Resumo:
The evaluation of investment fund performance has been one of the main developments of modern portfolio theory. Most studies employ the technique developed by Jensen (1968) that compares a particular fund's returns to a benchmark portfolio of equal risk. However, the standard measures of fund manager performance are known to suffer from a number of problems in practice. In particular previous studies implicitly assume that the risk level of the portfolio is stationary through the evaluation period. That is unconditional measures of performance do not account for the fact that risk and expected returns may vary with the state of the economy. Therefore many of the problems encountered in previous performance studies reflect the inability of traditional measures to handle the dynamic behaviour of returns. As a consequence Ferson and Schadt (1996) suggest an approach to performance evaluation called conditional performance evaluation which is designed to address this problem. This paper utilises such a conditional measure of performance on a sample of 27 UK property funds, over the period 1987-1998. The results of which suggest that once the time varying nature of the funds beta is corrected for, by the addition of the market indicators, the average fund performance show an improvement over that of the traditional methods of analysis.
Resumo:
Feedback design for a second-order control system leads to an eigenstructure assignment problem for a quadratic matrix polynomial. It is desirable that the feedback controller not only assigns specified eigenvalues to the second-order closed loop system but also that the system is robust, or insensitive to perturbations. We derive here new sensitivity measures, or condition numbers, for the eigenvalues of the quadratic matrix polynomial and define a measure of the robustness of the corresponding system. We then show that the robustness of the quadratic inverse eigenvalue problem can be achieved by solving a generalized linear eigenvalue assignment problem subject to structured perturbations. Numerically reliable methods for solving the structured generalized linear problem are developed that take advantage of the special properties of the system in order to minimize the computational work required. In this part of the work we treat the case where the leading coefficient matrix in the quadratic polynomial is nonsingular, which ensures that the polynomial is regular. In a second part, we will examine the case where the open loop matrix polynomial is not necessarily regular.