982 resultados para faces
Resumo:
Impressive claims have been made for the performance of the SNoW algorithm on face detection tasks by Yang et. al. [7]. In particular, by looking at both their results and those of Heisele et. al. [3], one could infer that the SNoW system performed substantially better than an SVM-based system, even when the SVM used a polynomial kernel and the SNoW system used a particularly simplistic 'primitive' linear representation. We evaluated the two approaches in a controlled experiment, looking directly at performance on a simple, fixed-sized test set, isolating out 'infrastructure' issues related to detecting faces at various scales in large images. We found that SNoW performed about as well as linear SVMs, and substantially worse than polynomial SVMs.
Resumo:
Most psychophysical studies of object recognition have focussed on the recognition and representation of individual objects subjects had previously explicitely been trained on. Correspondingly, modeling studies have often employed a 'grandmother'-type representation where the objects to be recognized were represented by individual units. However, objects in the natural world are commonly members of a class containing a number of visually similar objects, such as faces, for which physiology studies have provided support for a representation based on a sparse population code, which permits generalization from the learned exemplars to novel objects of that class. In this paper, we present results from psychophysical and modeling studies intended to investigate object recognition in natural ('continuous') object classes. In two experiments, subjects were trained to perform subordinate level discrimination in a continuous object class - images of computer-rendered cars - created using a 3D morphing system. By comparing the recognition performance of trained and untrained subjects we could estimate the effects of viewpoint-specific training and infer properties of the object class-specific representation learned as a result of training. We then compared the experimental findings to simulations, building on our recently presented HMAX model of object recognition in cortex, to investigate the computational properties of a population-based object class representation as outlined above. We find experimental evidence, supported by modeling results, that training builds a viewpoint- and class-specific representation that supplements a pre-existing repre-sentation with lower shape discriminability but possibly greater viewpoint invariance.
Resumo:
We present a trainable system for detecting frontal and near-frontal views of faces in still gray images using Support Vector Machines (SVMs). We first consider the problem of detecting the whole face pattern by a single SVM classifer. In this context we compare different types of image features, present and evaluate a new method for reducing the number of features and discuss practical issues concerning the parameterization of SVMs and the selection of training data. The second part of the paper describes a component-based method for face detection consisting of a two-level hierarchy of SVM classifers. On the first level, component classifers independently detect components of a face, such as the eyes, the nose, and the mouth. On the second level, a single classifer checks if the geometrical configuration of the detected components in the image matches a geometrical model of a face.
Resumo:
One of the key challenges in face perception lies in determining the contribution of different cues to face identification. In this study, we focus on the role of color cues. Although color appears to be a salient attribute of faces, past research has suggested that it confers little recognition advantage for identifying people. Here we report experimental results suggesting that color cues do play a role in face recognition and their contribution becomes evident when shape cues are degraded. Under such conditions, recognition performance with color images is significantly better than that with grayscale images. Our experimental results also indicate that the contribution of color may lie not so much in providing diagnostic cues to identity as in aiding low-level image-analysis processes such as segmentation.
Resumo:
The central challenge in face recognition lies in understanding the role different facial features play in our judgments of identity. Notable in this regard are the relative contributions of the internal (eyes, nose and mouth) and external (hair and jaw-line) features. Past studies that have investigated this issue have typically used high-resolution images or good-quality line drawings as facial stimuli. The results obtained are therefore most relevant for understanding the identification of faces at close range. However, given that real-world viewing conditions are rarely optimal, it is also important to know how image degradations, such as loss of resolution caused by large viewing distances, influence our ability to use internal and external features. Here, we report experiments designed to address this issue. Our data characterize how the relative contributions of internal and external features change as a function of image resolution. While we replicated results of previous studies that have shown internal features of familiar faces to be more useful for recognition than external features at high resolution, we found that the two feature sets reverse in importance as resolution decreases. These results suggest that the visual system uses a highly non-linear cue-fusion strategy in combining internal and external features along the dimension of image resolution and that the configural cues that relate the two feature sets play an important role in judgments of facial identity.
Resumo:
Understanding how the human visual system recognizes objects is one of the key challenges in neuroscience. Inspired by a large body of physiological evidence (Felleman and Van Essen, 1991; Hubel and Wiesel, 1962; Livingstone and Hubel, 1988; Tso et al., 2001; Zeki, 1993), a general class of recognition models has emerged which is based on a hierarchical organization of visual processing, with succeeding stages being sensitive to image features of increasing complexity (Hummel and Biederman, 1992; Riesenhuber and Poggio, 1999; Selfridge, 1959). However, these models appear to be incompatible with some well-known psychophysical results. Prominent among these are experiments investigating recognition impairments caused by vertical inversion of images, especially those of faces. It has been reported that faces that differ "featurally" are much easier to distinguish when inverted than those that differ "configurally" (Freire et al., 2000; Le Grand et al., 2001; Mondloch et al., 2002) ??finding that is difficult to reconcile with the aforementioned models. Here we show that after controlling for subjects' expectations, there is no difference between "featurally" and "configurally" transformed faces in terms of inversion effect. This result reinforces the plausibility of simple hierarchical models of object representation and recognition in cortex.
Resumo:
The Support Vector Machine (SVM) is a new and very promising classification technique developed by Vapnik and his group at AT&T Bell Labs. This new learning algorithm can be seen as an alternative training technique for Polynomial, Radial Basis Function and Multi-Layer Perceptron classifiers. An interesting property of this approach is that it is an approximate implementation of the Structural Risk Minimization (SRM) induction principle. The derivation of Support Vector Machines, its relationship with SRM, and its geometrical insight, are discussed in this paper. Training a SVM is equivalent to solve a quadratic programming problem with linear and box constraints in a number of variables equal to the number of data points. When the number of data points exceeds few thousands the problem is very challenging, because the quadratic form is completely dense, so the memory needed to store the problem grows with the square of the number of data points. Therefore, training problems arising in some real applications with large data sets are impossible to load into memory, and cannot be solved using standard non-linear constrained optimization algorithms. We present a decomposition algorithm that can be used to train SVM's over large data sets. The main idea behind the decomposition is the iterative solution of sub-problems and the evaluation of, and also establish the stopping criteria for the algorithm. We present previous approaches, as well as results and important details of our implementation of the algorithm using a second-order variant of the Reduced Gradient Method as the solver of the sub-problems. As an application of SVM's, we present preliminary results we obtained applying SVM to the problem of detecting frontal human faces in real images.
Resumo:
This article studies the static pricing problem of a network service provider who has a fixed capacity and faces different types of customers (classes). Each type of customers can have its own capacity constraint but it is assumed that all classes have the same resource requirement. The provider must decide a static price for each class. The customer types are characterized by their arrival process, with a price-dependant arrival rate, and the random time they remain in the system. Many real-life situations could fit in this framework, for example an Internet provider or a call center, but originally this problem was thought for a company that sells phone-cards and needs to set the price-per-minute for each destination. Our goal is to characterize the optimal static prices in order to maximize the provider's revenue. We note that the model here presented, with some slight modifications and additional assumptions can be used in those cases when the objective is to maximize social welfare.
Resumo:
El artículo analiza la relación que ha existido en Colombia a partir de la década de los años 90 s- entre el impuesto de renta y la generación de empleo. En el estudio se identificaron los principales obstáculos que enfrenta la política tributaria colombiana; entre ellos los altos costos laborales salariales y no salariales (impuestos a la nómina), la acción de los grupos de presión, el desempleo, excesos en la formulación de exenciones y descuentos tributarios injustificados al igual que la necesidad de formular políticas tributarias y laborales viables a mediano y largo plazo. Como puede verse a lo largo de la investigación, estos elementos han impedido la consecución de una política tributaria óptima que contemple los principios de equidad, progresividad, eficiencia y flexibilidad.
Resumo:
La población roma/gitana representa la minoría étnica más numerosa de Europa occidental, y así mismo constituye una de las poblaciones más vulnerables que enfrenta serios problemas de discriminación y exclusión en la mayoría de sociedades europeas. La falta de efectividad en la formulación de políticas de inserción y las medidas adoptadas por los gobiernos nacionales para la gestión de la inmigración en general, tienen serias repercusiones sobre este colectivo. En efecto, las agendas políticas han securitizado el tema de la inmigración con la finalidad de controlar los flujos migratorios no solo a nivel nacional, sino ahora a nivel comunitario. De los países de Europa del este, Rumania constituye el principal país emisor de esta migración y Francia es uno de los principales países receptores en Europa occidental. La relación franco-rumana se ha potencializado en parte gracias al debate en torno al tema roma/gitano y así mismo se han adoptado medidas de carácter bilateral en términos de seguridad. Como consecuencia del ingreso de Rumania a la Unión Europea en el año 2007 y su futuro ingreso al espacio Schengen de libre circulación, la población romaní incrementará hasta los 4.4 millones aproximadamente y dejará de ser una migración internacional para convertirse en una migración de carácter interno, lo cual implica un cambio en la gestión migratoria hacia este colectivo a nivel comunitario.
Resumo:
A lo largo de la historia el terrorismo con sus diversas manifestaciones ha llevado a que éste se convierta en un factor común, sin dejar de ser complejo, en los escenarios geográficos en los que el fenómeno se ha venido desarrollando. Pensamientos variados y cambiantes han permitido que el terrorismo adquiera diferentes matices dependiendo de la época, el territorio y la población directa a la cual se enfrenta y por supuesto a las Instituciones y demás regiones y habitantes de las mismas que resultan afectadas por su impacto. En este trabajo se consideran datos importantes de ETA (Euskadi Ta Askatasuna) para el análisis ya que ha sido desde su nacimiento uno de los principales factores que han desestabilizado las relaciones geopolíticas de los países implicados en el tema.
Resumo:
Desde 1980 el Perú entra a una de sus épocas más sangrientas: Sendero Luminoso un grupo armado de extracción marxista-maoista-leninista, guiado por Abimael Guzmán Reynoso se enfrenta en una guerra sin cuartel contra las Fuerzas Militares del Perú con el propósito de tomarse el poder. Este estudio de caso muestra como la respuesta del Estado fue inadecuada al reto que proponía Sendero a la vez que se exponen las razones por las cuales la población fue el factor determinante para frenar el avance de Sendero mediante la creación de grupos de autodefensa denominados Comités de Defensa.
Resumo:
Actualmente estamos siendo testigos de una segunda revolución tecnológica, en la que se hace evidente el surgimiento de dos nuevos paradigmas en relación con la entronización del mercado y la tecnología. Estos paradigmas han modificado sustancialmente la esfera de la comunicación y en particular, el ámbito de la información. Estos cambios, rastreables al fenómeno de la globalización, plantean nuevos dilemas que cuestionan la labor y el ejercicio periodístico, lo que forzosamente nos lleva a preguntarnos ¿cuáles son los principales retos del periodista en el contexto actual de la globalización?
Resumo:
La presente monografía examina los alcances reales del Control Social a la Gestión Pública estatal desde el análisis de factores de éxito y fracaso, tomando como caso de estudio a la Red ciudadana de control social en Bienestar componente discapacidad en Bogotá D.C. Este tipo de control fue concebido en marco normativo del país para prevenir actos corruptos y para que contribuyera al mejoramiento de la administración pública, haciéndola más acorde a las necesidades de la ciudadanía. Ahora bien, por lo que implica cumplir estas funciones, el control social se enfrenta a múltiples circunstancias que lo influyen positiva y negativamente, que determinan los efectos que pueda producir a nivel estatal y ciudadano. Para cumplir con este objetivo y a la luz del Enfoque Sistémico, se diseñó un modelo que permitiera identificar factores de éxito y fracaso basado en tres elementos básicos (organización, conocimiento y comunicación) que posibilitan caracterizar factores reconocidos en la bibliografía y otros nuevos que los provee el análisis de la experiencia, y que resultan hallazgos importantes por cuanto no se habían incluido hasta el momento en ningún recurso bibliográfico. En conclusión, se demuestra que mediante ciertas prácticas y acciones concretas los ciudadanos pueden incidir lícitamente en las actividades estatales, transformando la gestión pública y produciendo una mayor apropiación de lo público por parte de los ciudadanos.
Resumo:
Esta tesis surge como una oportunidad de crear una herramienta de mejora en las empresas, para controlar los inventarios de la manera más adecuada. Debido a los desórdenes de los precios en el mercado, las promociones no planeadas, y la confrontación de pronósticos optimistas Vs. Pronósticos conservadores, se presenta un gran volumen de devoluciones, repercutiendo en el deterioro de la cartera y afectando directamente las metas estratégicas de las empresas. Tras esta clara oportunidad de mejora, se toma la decisión de evaluar el modelo de pronóstico que arroje los valores más acertados para la planeación de la demanda. Por otro lado, se analizo el mejor modelo de inventarios con sus respectivos indicadores de control. Dando como resultado una herramienta parametrizada en Excel, que arroja datos de pronósticos de ventas más acertados y optimiza la gestión de los inventarios. Esta herramienta contiene un modelo de gestión de inventarios de revisión continua, lo cual brinda información más acertada de la demanda que enfrenta la compañía, las ventas que puede generar, y los procesos que necesita planear para respaldar su actividad.