931 resultados para scenes
Resumo:
Edgar Degas, observateur réputé de la vie parisienne du XIXe siècle, réserve tout au long de sa carrière un traitement particulier à la figure féminine. Dès les premières tentatives de tableaux d’histoire et les portraits des débuts, dont un grand nombre concerne des couples et des membres de sa famille, Degas introduit une forme de tension dans les rapports entre les hommes et les femmes. Cette tension se manifeste à la fois dans la structure des œuvres et dans le registre expressif des figures représentées. Elle perdure dans les tableaux de genre qui marquent un intérêt accru de Degas pour les scènes de la vie contemporaine. Ces dernières suggèrent une trame narrative encore aujourd’hui difficile à déchiffrer mais où continue de se manifester une forme d’opposition entre les pôles masculin et féminin de l’image. Ce sont surtout les œuvres représentant des femmes au travail ou à leur toilette, réalisées dans la période de la maturité de l’artiste, qui manifestent cette tension à son maximum et lui confèrent un supplément de résonnance personnelle et sociale. Un pivotement du dispositif figuratif maintient le pôle féminin dans l’espace de représentation alors que le pôle masculin se situe désormais du côté du spectateur. Ces figures de femmes dont la gestuelle, le positionnement dans l’espace et le mode d’adresse suggèrent qu’elles font l’objet d’une effraction du regard qui s’énonce au masculin, résistent par plusieurs aspects au scénario érotique voyeuriste qui se développe à l’époque dans beaucoup de tableaux académiques et dans les illustrations populaires.
Resumo:
L’essai Au théâtre on meurt pour rien. Raconter la mort sans coupable, entre Maeterlinck et Chaurette, compare divers usages dramatiques du récit de mort sous l’éclairage de la généalogie nietzschéenne de l’inscription mémorielle. Pour illustrer l’hypothèse d’une fonction classique du témoin de la mort − donner sens au trépas en le situant dans une quête scénique de justice −, l’essai fait appel à des personnages-types chez Eschyle, Shakespeare et Racine. En contraste, des œuvres du dramaturge moderne Maeterlinck (Intérieur) et du dramaturge contemporain Normand Chaurette (Fragments d’une lettre d’adieu lus par des géologues, Stabat Mater II) sont interprétées comme logeant toute leur durée scénique dans un temps de la mort qui dépasserait la recherche d’un coupable absolu ; une étude approfondie les distingue toutefois par la valeur accordée à l’insolite et à la banalité, ainsi qu’à la singularité des personnages. Le plancher sous la moquette est une pièce de théâtre en trois scènes et trois registres de langue, pour deux comédiennes. Trois couples de sœurs se succèdent dans le salon d’un appartement, jadis une agence de détective qui a marqué leur imaginaire d’enfant. Thématiquement, la pièce déplace le lien propre aux films noirs entre l’enquête et la ville, en y juxtaposant le brouillage temporel qu’implique l’apparition de fantômes. Chacune des trois scènes déréalise les deux autres en redistribuant les mêmes données selon une tonalité autre, mais étrangement similaire, afin d’amener le spectateur à douter du hors-scène : le passé, l’appartement, Montréal. Son réflexe cartésien de traquer la vérité doit le mener à découvrir que les scènes ne vont pas de l’ombre à la lumière, mais qu’elles montrent plutôt que dans l’une et l’autre, la mort n’échappe pas aux trivialités de la mémoire.
Resumo:
Demonstration videos can be found on fr.linkedin.com/in/doriangomez/
Resumo:
En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.
Resumo:
Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.
Resumo:
Réalisé en cotutelle avec l'Université de Grenoble.
Resumo:
Cette étude porte sur un type de cinéma italien appelé giallo. Ayant connu une forte popularité au tournant des années 1970 auprès d’un public dit vernaculaire, ces thrillers horrifiques sont encore aujourd’hui réputés pour leurs scènes de meurtre sanglantes et spectaculaires mettant à l’honneur un assassin ganté. Ce mémoire se propose de faire le point sur ces séquences de meurtre et surtout d’expliquer la façon particulière avec laquelle elles sont mises en scène. Pour bien y parvenir, nous en fournissons tout au long des exemples et les soumettons à une analyse détaillée. Notre approche analytique se veut essentiellement formaliste. Il s’agit de déconstruire ces scènes violentes afin d’en révéler certains des rouages. Dans un premier temps, nous rappelons quelques notions fondamentales du cinéma gore et nous penchons sur la problématique que pose invariablement la représentation de la mort au grand écran. Ceci nous permet ensuite d’observer plus amplement comment les réalisateurs du giallo traitent ces scènes d’homicide sur un mode excessif et poétique. Enfin, le rapport érotique à la violence entretenu dans ces scènes est considéré. Cela nous donne notamment l’occasion de nous intéresser à la figure du mannequin (vivant et non vivant) et de voir de quelles manières les cinéastes peuvent par son entremise transmettre un sentiment d’inquiétante étrangeté.
Resumo:
Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.
Resumo:
Ce mémoire propose un regard transdisciplinaire : historique, sociologique et musical sur Harmonium, un groupe culte de folk-rock progressif québécois des années 1970. Y sont étudiées la révolution musicale engendrée par l’arrivée du folk et du rock progressif au Québec ainsi que la mise en récit de l’œuvre et de l’histoire d’Harmonium. Les œuvres du groupe, les sources écrites d’époque (articles de journaux et de revues), l’histoire documentaire et l’histoire et la mémoire publiques y sont confrontées pour analyser les processus narratifs. D’abord, l’essor du groupe est situé dans les transformations de la scène musicale québécoise au cours des années 1960-1970. L’histoire d’Harmonium, entre 1972 et 1978, est ensuite reconstituée au travers des sources d’époque, articles scientifiques et biographies. Par la suite, les caractéristiques musicales des œuvres ainsi que les thèmes, valeurs et messages véhiculés par le groupe sont examinés. L’essor et le succès d’Harmonium sont ainsi réinterprétés au travers du développement de la scène musicale progressive internationale et de la popularisation de la contre-culture. Finalement, en regard de l’ambiguïté politique d’Harmonium dans les sources historiques, la prédominance des réinterprétations néonationalistes de son œuvre et de son histoire sont analysées selon un processus de mise en récit de l’histoire nationale. Il en ressort que la narration prédominante au sein de l’histoire et de la mémoire publiques semble assimiler le destin des artistes québécois à celui du peuple et de la nation. Dans le cas d’Harmonium, ce récit qui s’appuie principalement sur le nationalisme de Serge Fiori, la figure de proue du groupe, contribue à l’occultation du projet artistique spirituel, progressif, contre-culturel et « authentique » du groupe.
Resumo:
The present study focuses attention on the social phenomenon of environmental protection pressure groups in Kerala. A detailed historical background of environmental protection pressure groups at international and national scenes as background for this study .Emphirical studies of environmental protection pressure groups in Kerala with special reference to industrial pollution is dicussed in detail . The main objective of the study is to identify the factors that make pressure groups succeed or fail in achieving their set objectives.The factors include the structure and strategies of social pressure groups and the support they receive from the environment.
Resumo:
Texture provides one cue for identifying the physical cause of an intensity edge, such as occlusion, shadow, surface orientation or reflectance change. Marr, Julesz, and others have proposed that texture is represented by small lines or blobs, called 'textons' by Julesz [1981a], together with their attributes, such as orientation, elongation, and intensity. Psychophysical studies suggest that texture boundaries are perceived where distributions of attributes over neighborhoods of textons differ significantly. However, these studies, which deal with synthetic images, neglect to consider two important questions: How can these textons be extracted from images of natural scenes? And how, exactly, are texture boundaries then found? This thesis proposes answers to these questions by presenting an algorithm for computing blobs from natural images and a statistic for measuring the difference between two sample distributions of blob attributes. As part of the blob detection algorithm, methods for estimating image noise are presented, which are applicable to edge detection as well.
Resumo:
Surface (Lambertain) color is a useful visual cue for analyzing material composition of scenes. This thesis adopts a signal processing approach to color vision. It represents color images as fields of 3D vectors, from which we extract region and boundary information. The first problem we face is one of secondary imaging effects that makes image color different from surface color. We demonstrate a simple but effective polarization based technique that corrects for these effects. We then propose a systematic approach of scalarizing color, that allows us to augment classical image processing tools and concepts for multi-dimensional color signals.
Resumo:
A new information-theoretic approach is presented for finding the pose of an object in an image. The technique does not require information about the surface properties of the object, besides its shape, and is robust with respect to variations of illumination. In our derivation, few assumptions are made about the nature of the imaging process. As a result the algorithms are quite general and can foreseeably be used in a wide variety of imaging situations. Experiments are presented that demonstrate the approach registering magnetic resonance (MR) images with computed tomography (CT) images, aligning a complex 3D object model to real scenes including clutter and occlusion, tracking a human head in a video sequence and aligning a view-based 2D object model to real images. The method is based on a formulation of the mutual information between the model and the image called EMMA. As applied here the technique is intensity-based, rather than feature-based. It works well in domains where edge or gradient-magnitude based methods have difficulty, yet it is more robust than traditional correlation. Additionally, it has an efficient implementation that is based on stochastic approximation. Finally, we will describe a number of additional real-world applications that can be solved efficiently and reliably using EMMA. EMMA can be used in machine learning to find maximally informative projections of high-dimensional data. EMMA can also be used to detect and correct corruption in magnetic resonance images (MRI).
Resumo:
We present an example-based learning approach for locating vertical frontal views of human faces in complex scenes. The technique models the distribution of human face patterns by means of a few view-based "face'' and "non-face'' prototype clusters. At each image location, the local pattern is matched against the distribution-based model, and a trained classifier determines, based on the local difference measurements, whether or not a human face exists at the current image location. We provide an analysis that helps identify the critical components of our system.
Resumo:
A fast simulated annealing algorithm is developed for automatic object recognition. The normalized correlation coefficient is used as a measure of the match between a hypothesized object and an image. Templates are generated on-line during the search by transforming model images. Simulated annealing reduces the search time by orders of magnitude with respect to an exhaustive search. The algorithm is applied to the problem of how landmarks, for example, traffic signs, can be recognized by an autonomous vehicle or a navigating robot. The algorithm works well in noisy, real-world images of complicated scenes for model images with high information content.