54 resultados para Sèries de ficció
Resumo:
La région du Zanskar, étudiée dans le cadre de ce travail, se situe au passage entre deux domaines himalayens fortement contrastés, la Séquence Cristalline du Haut Himalaya (HHCS), composée de roches métamorphiques et l'Himalaya Tethysien (TH), composé de séries sédimentaires. La transition entre ces deux domaines est marquée par une structure tectonique majeure, la Zone de Cisaillement du Zanskar (ZSZ), au sein de laquelle on observe une augmentation extrêmement rapide, mais néanmoins graduelle, du degré du métamorphisme entre le TH et le HHCS. Il a été établi que le HHCS n'est autre que l'équivalent métamorphique des séries sédimentaires de la base du TH. C'est principalement lors d'un épisode de mise en place de nappes à vergence sudouest, entre l'Eocène moyen et l'Oligocène, que les séries sédimentaires de la base du TH ont été entraînées en profondeur où elles ont subi un métamorphisme de type barrovien. Au début du Miocène, le HHCS à été exhumé en direction du sud-ouest sous forme d'une grande nappe, délimitée a sa base par le MCT (principal chevauchement central) et à son sommet par la Zone de Cisaillement du Zanskar. L'ensemble des zones barroviennes, de la zone à biotite jusqu'à la zone à disthène, a été cisaillée par les mouvements en faille normale au sommet du HHCS et se retrouve actuellement sur une épaisseur d'environ 1 kilomètre au sein de la ZSZ. La décompression associée à l'exhumation du HHCS a provoqué la fusion partielle d'une partie du HHCS et a donné naissance à des magmas de composition leucogranitiques. Grâce à la géothermobarometrie, et connaissant la géométrie de la ZSZ, il nous a été possible de déterminer que le rejet le long de cette structure d'extension est d'au moins 35?9 kilomètres. Une série d'arguments nous permet cependant de suggérer que ce rejet aurait pu être encore bien plus important (~100km). Les données géochronologiques nous permettent de contraindre la durée des mouvements d'extension le long de la ZSZ à 2.4?0.2 Ma entre 22.2?0.2 Ma et 19.8?0.1 Ma. Ce travail apporte de nouvelles données sur les processus métamorphiques, magmatiques et tectoniques liés aux phénomènes d'extension syn-orogeniques.<br/><br/>The southeastern part of Zanskar is located at the transition between two major Himalayan domains of contrasting metamorphic grade, the High Himalayan Crystalline Sequence (HHCS) and the Tethyan Himalaya (TH). The transition between the TH and the HHCS is marked by a very rapid, although perfectly gradual, decrease in metamorphic grade, which coincides with a major tectonic structure, the Zanskar Shear Zone (ZSZ). It is now an established fact that the relation between the HHCS and the TH is not one of basement-cover type, but that the metasedimentary series of the HHCS represent the metamorphic equivalent of the lowermost sedimentary series of the TH. This transformation of sedimentary series into metamorphic rocks, and hence the differentiation between the TH and the HHCS, is the consequence of crustal thickening associated to the formation of large scale southwest vergent nappes within the Tethyan Himalaya sedimentary series. This, Middle Eocene to Oligocene, episode of crustal thickening and associated Barrovian metamorphism is followed, shortly after, by the exhumation of the HHCS as a, large scale, south-west vergent, nappe. Foreword The exhumation of the HHCS nappe is marked by the activation of two contemporaneous structures, the Main Central Thrust at its base and the Zanskar Shear Zone at its top. Extensional movements along the ZSZ, caused the Barrovian biotite to the kyanite zones to be sheared and constricted within the ~1 km thick shear zone. Decompression associated with the exhumation of the HHCS induced the formation of leucogranitic magmas through vapour-absent partial melting of the highest-grade rocks. The combination of geothermobarometric data with a geometric model of the ZSZ allowed us to constrain the net slip at the top of the HHCS to be at least 35?9 kilometres. A set of arguments however suggests that these movements might have been much more important (~ 100 km). Geochronological data coupled with structural observations constrain the duration of ductile shearing along the ZSZ to 2.4?0.2 Ma between 22.2?0.2 Ma and 19.8?0.1 Ma. This study also addresses the consequences of synorogenic extension on the metamorphic, tectonic and magmatic evolution of the upper parts of the High Himalayan Crystalline Sequence.
Resumo:
ABSTRACT: Massive synaptic pruning following over-growth is a general feature of mammalian brain maturation. Pruning starts near time of birth and is completed by time of sexual maturation. Trigger signals able to induce synaptic pruning could be related to dynamic functions that depend on the timing of action potentials. Spike-timing-dependent synaptic plasticity (STDP) is a change in the synaptic strength based on the ordering of pre- and postsynaptic spikes. The relation between synaptic efficacy and synaptic pruning suggests that the weak synapses may be modified and removed through competitive "learning" rules. This plasticity rule might produce the strengthening of the connections among neurons that belong to cell assemblies characterized by recurrent patterns of firing. Conversely, the connections that are not recurrently activated might decrease in efficiency and eventually be eliminated. The main goal of our study is to determine whether or not, and under which conditions, such cell assemblies may emerge out of a locally connected random network of integrate-and-fire units distributed on a 2D lattice receiving background noise and content-related input organized in both temporal and spatial dimensions. The originality of our study stands on the relatively large size of the network, 10,000 units, the duration of the experiment, 10E6 time units (one time unit corresponding to the duration of a spike), and the application of an original bio-inspired STDP modification rule compatible with hardware implementation. A first batch of experiments was performed to test that the randomly generated connectivity and the STDP-driven pruning did not show any spurious bias in absence of stimulation. Among other things, a scale factor was approximated to compensate for the network size on the ac¬tivity. Networks were then stimulated with the spatiotemporal patterns. The analysis of the connections remaining at the end of the simulations, as well as the analysis of the time series resulting from the interconnected units activity, suggest that feed-forward circuits emerge from the initially randomly connected networks by pruning. RESUME: L'élagage massif des synapses après une croissance excessive est une phase normale de la ma¬turation du cerveau des mammifères. L'élagage commence peu avant la naissance et est complété avant l'âge de la maturité sexuelle. Les facteurs déclenchants capables d'induire l'élagage des synapses pourraient être liés à des processus dynamiques qui dépendent de la temporalité rela¬tive des potentiels d'actions. La plasticité synaptique à modulation temporelle relative (STDP) correspond à un changement de la force synaptique basé sur l'ordre des décharges pré- et post- synaptiques. La relation entre l'efficacité synaptique et l'élagage des synapses suggère que les synapses les plus faibles pourraient être modifiées et retirées au moyen d'une règle "d'appren¬tissage" faisant intervenir une compétition. Cette règle de plasticité pourrait produire le ren¬forcement des connexions parmi les neurones qui appartiennent à une assemblée de cellules caractérisée par des motifs de décharge récurrents. A l'inverse, les connexions qui ne sont pas activées de façon récurrente pourraient voir leur efficacité diminuée et être finalement éliminées. Le but principal de notre travail est de déterminer s'il serait possible, et dans quelles conditions, que de telles assemblées de cellules émergent d'un réseau d'unités integrate-and¬-fire connectées aléatoirement et distribuées à la surface d'une grille bidimensionnelle recevant à la fois du bruit et des entrées organisées dans les dimensions temporelle et spatiale. L'originalité de notre étude tient dans la taille relativement grande du réseau, 10'000 unités, dans la durée des simulations, 1 million d'unités de temps (une unité de temps correspondant à une milliseconde), et dans l'utilisation d'une règle STDP originale compatible avec une implémentation matérielle. Une première série d'expériences a été effectuée pour tester que la connectivité produite aléatoirement et que l'élagage dirigé par STDP ne produisaient pas de biais en absence de stimu¬lation extérieure. Entre autres choses, un facteur d'échelle a pu être approximé pour compenser l'effet de la variation de la taille du réseau sur son activité. Les réseaux ont ensuite été stimulés avec des motifs spatiotemporels. L'analyse des connexions se maintenant à la fin des simulations, ainsi que l'analyse des séries temporelles résultantes de l'activité des neurones, suggèrent que des circuits feed-forward émergent par l'élagage des réseaux initialement connectés au hasard.
Resumo:
La fabrication, la distribution et l'usage de fausses pièces d'identité constituent une menace pour la sécurité autant publique que privée. Ces faux documents représentent en effet un catalyseur pour une multitude de formes de criminalité, des plus anodines aux formes les plus graves et organisées. La dimension, la complexité, la faible visibilité, ainsi que les caractères répétitif et évolutif de la fraude aux documents d'identité appellent des réponses nouvelles qui vont au-delà d'une approche traditionnelle au cas par cas ou de la stratégie du tout technologique dont la perspective historique révèle l'échec. Ces nouvelles réponses passent par un renforcement de la capacité de comprendre les problèmes criminels que posent la fraude aux documents d'identité et les phénomènes qui l'animent. Cette compréhension est tout bonnement nécessaire pour permettre d'imaginer, d'évaluer et de décider les solutions et mesures les plus appropriées. Elle requière de développer les capacités d'analyse et la fonction de renseignement criminel qui fondent en particulier les modèles d'action de sécurité les plus récents, tels que l'intelligence-led policing ou le problem-oriented policing par exemple. Dans ce contexte, le travail doctoral adopte une position originale en postulant que les fausses pièces d'identité se conçoivent utilement comme la trace matérielle ou le vestige résultant de l'activité de fabrication ou d'altération d'un document d'identité menée par les faussaires. Sur la base de ce postulat fondamental, il est avancé que l'exploitation scientifique, méthodique et systématique de ces traces au travers d'un processus de renseignement forensique permet de générer des connaissances phénoménologiques sur les formes de criminalité qui fabriquent, diffusent ou utilisent les fausses pièces d'identité, connaissances qui s'intègrent et se mettent avantageusement au service du renseignement criminel. A l'appui de l'épreuve de cette thèse de départ et de l'étude plus générale du renseignement forensique, le travail doctoral propose des définitions et des modèles. Il décrit des nouvelles méthodes de profilage et initie la constitution d'un catalogue de formes d'analyses. Il recourt également à des expérimentations et des études de cas. Les résultats obtenus démontrent que le traitement systématique de la donnée forensique apporte une contribution utile et pertinente pour le renseignement criminel stratégique, opérationnel et tactique, ou encore la criminologie. Combiné aux informations disponibles par ailleurs, le renseignement forensique produit est susceptible de soutenir l'action de sécurité dans ses dimensions répressive, proactive, préventive et de contrôle. En particulier, les méthodes de profilage des fausses pièces d'identité proposées permettent de révéler des tendances au travers de jeux de données étendus, d'analyser des modus operandi ou d'inférer une communauté ou différence de source. Ces méthodes appuient des moyens de détection et de suivi des séries, des problèmes et des phénomènes criminels qui s'intègrent dans le cadre de la veille opérationnelle. Ils permettent de regrouper par problèmes les cas isolés, de mettre en évidence les formes organisées de criminalité qui méritent le plus d'attention, ou de produire des connaissances robustes et inédites qui offrent une perception plus profonde de la criminalité. Le travail discute également les difficultés associées à la gestion de données et d'informations propres à différents niveaux de généralité, ou les difficultés relatives à l'implémentation du processus de renseignement forensique dans la pratique. Ce travail doctoral porte en premier lieu sur les fausses pièces d'identité et leur traitement par les protagonistes de l'action de sécurité. Au travers d'une démarche inductive, il procède également à une généralisation qui souligne que les observations ci-dessus ne valent pas uniquement pour le traitement systématique des fausses pièces d'identité, mais pour celui de tout type de trace dès lors qu'un profil en est extrait. Il ressort de ces travaux une définition et une compréhension plus transversales de la notion et de la fonction de renseignement forensique. The production, distribution and use of false identity documents constitute a threat to both public and private security. Fraudulent documents are a catalyser for a multitude of crimes, from the most trivial to the most serious and organised forms. The dimension, complexity, low visibility as well as the repetitive and evolving character of the production and use of false identity documents call for new solutions that go beyond the traditional case-by-case approach, or the technology-focused strategy whose failure is revealed by the historic perspective. These new solutions require to strengthen the ability to understand crime phenomena and crime problems posed by false identity documents. Such an understanding is pivotal in order to be able to imagine, evaluate and decide on the most appropriate measures and responses. Therefore, analysis capacities and crime intelligence functions, which found the most recent policing models such as intelligence-led policing or problem-oriented policing for instance, have to be developed. In this context, the doctoral research work adopts an original position by postulating that false identity documents can be usefully perceived as the material remnant resulting from the criminal activity undertook by forgers, namely the manufacture or the modification of identity documents. Based on this fundamental postulate, it is proposed that a scientific, methodical and systematic processing of these traces through a forensic intelligence approach can generate phenomenological knowledge on the forms of crime that produce, distribute and use false identity documents. Such knowledge should integrate and serve advantageously crime intelligence efforts. In support of this original thesis and of a more general study of forensic intelligence, the doctoral work proposes definitions and models. It describes new profiling methods and initiates the construction of a catalogue of analysis forms. It also leverages experimentations and case studies. Results demonstrate that the systematic processing of forensic data usefully and relevantly contributes to strategic, tactical and operational crime intelligence, and also to criminology. Combined with alternative information available, forensic intelligence may support policing in its repressive, proactive, preventive and control activities. In particular, the proposed profiling methods enable to reveal trends among extended datasets, to analyse modus operandi, or to infer that false identity documents have a common or different source. These methods support the detection and follow-up of crime series, crime problems and phenomena and therefore contribute to crime monitoring efforts. They enable to link and regroup by problems cases that were previously viewed as isolated, to highlight organised forms of crime which deserve greatest attention, and to elicit robust and novel knowledge offering a deeper perception of crime. The doctoral research work discusses also difficulties associated with the management of data and information relating to different levels of generality, or difficulties associated with the implementation in practice of the forensic intelligence process. The doctoral work focuses primarily on false identity documents and their treatment by policing stakeholders. However, through an inductive process, it makes a generalisation which underlines that observations do not only apply to false identity documents but to any kind of trace as soon as a profile is extracted. A more transversal definition and understanding of the concept and function of forensic intelligence therefore derives from the doctoral work.
Resumo:
Les maladies cardio-vasculaires représentent la première cause de mortalité en Suisse. Après un arrêt cardio-respiratoire, une minorité des patients survit sans ou avec peu de séquelles fonctionnelles. L'évaluation du pronostic se fait classiquement selon des critères établis par l'Académie Américaine de Neurologie (AAN) en 2006, soit précédant l'introduction de l'hypothermie thérapeutique. Depuis, ces critères semblent insuffisants, et de nouveaux examens para-cliniques sont nécessaires afin d'identifier les patients ayant un pronostic favorable. La détection d'irrégularités auditives, et plus particulièrement l'évolution de cette détection sur plusieurs jours, pourrait être un indicateur du pronostic de patients comateux suite à une anoxie cérébrale. En effet, lors d'une violation de la régularité établie par des séries de sons identiques, deux signaux sont détectables à l'électro- encéphalographie (EEG). Le premier, dénommé «Mismatch negativity» (MMN), peut être enregistré après une violation locale d'une régularité établie au niveau de chaque son. Il reflète un processus inconscient et ne demandant pas de ressources attentionnelles. Le deuxième, dénommé « complexe P300 » survient par contre après une violation globale d'une régularité établie au niveau de groupes de sons. La littérature actuelle indique que ce deuxième phénomène requerrait la présence de capacités attentionnelles. Dans notre étude, nous avons testé l'existence de cette détection d'irrégularités auditives globales chez des patients dans une phase précoce de coma post-anoxique, sous hypothermie thérapeutique. Nous avons enregistré la réponse électro-encéphalographique lors de violations de régularités auditives globales, à l'aide d'un protocole expérimental qui intégrait en plus un paradigme de MMN classique, afin de tester la détection d'irrégularités auditives locales également. Notre analyse finale inclut 24 patients comateux ayant subi un arrêt cardio-respiratoire, et bénéficié du protocole hypothermie du Centre Hospitalier Universitaire Vaudois (CHUV) à Lausanne. Après une analyse multivariée des réponses électro-encéphalographiques de chaque tracé individuellement (« single-trial »), nous avons trouvé que 8 patients sur 24 pouvaient discriminer une irrégularité globale, alors qu'étant définis comateux selon l'échelle de Glasgow (GCS). De plus, l'amélioration de la détection d' irrégularités auditives entre deux EEG consécutifs (en hypo- puis normothermie), était un facteur de bon pronostic. Notre test pourrait ainsi être un complément para-clinique dans l'évaluation du pronostic de patients en coma post- anoxique.
Resumo:
Le nombre d'examens tomodensitométriques (Computed Tomography, CT) effectués chaque année étant en constante augmentation, différentes techniques d'optimisation, dont les algorithmes de reconstruction itérative permettant de réduire le bruit tout en maintenant la résolution spatiale, ont étés développées afin de réduire les doses délivrées. Le but de cette étude était d'évaluer l'impact des algorithmes de reconstruction itérative sur la qualité image à des doses effectives inférieures à 0.3 mSv, comparables à celle d'une radiographie thoracique. Vingt CT thoraciques effectués à cette dose effective ont été reconstruits en variant trois paramètres: l'algorithme de reconstruction, rétroprojection filtrée versus reconstruction itérative iDose4; la matrice, 5122 versus 7682; et le filtre de résolution en densité (mou) versus spatiale (dur). Ainsi, 8 séries ont été reconstruites pour chacun des 20 CT thoraciques. La qualité d'image de ces 8 séries a d'abord été évaluée qualitativement par deux radiologues expérimentés en aveugle en se basant sur la netteté des parois bronchiques et de l'interface entre le parenchyme pulmonaire et les vaisseaux, puis quantitativement en utilisant une formule de merit, fréquemment utilisée dans le développement de nouveaux algorithmes et filtres de reconstruction. La performance diagnostique de la meilleure série acquise à une dose effective inférieure à 0.3 mSv a été comparée à celle d'un CT de référence effectué à doses standards en relevant les anomalies du parenchyme pulmonaire. Les résultats montrent que la meilleure qualité d'image, tant qualitativement que quantitativement a été obtenue en utilisant iDose4, la matrice 5122 et le filtre mou, avec une concordance parfaite entre les classements quantitatif et qualitatif des 8 séries. D'autre part, la détection des nodules pulmonaires de plus de 4mm étaient similaire sur la meilleure série acquise à une dose effective inférieure à 0.3 mSv et le CT de référence. En conclusion, les CT thoraciques effectués à une dose effective inférieure à 0.3 mSv reconstruits avec iDose4, la matrice 5122 et le filtre mou peuvent être utilisés avec confiance pour diagnostiquer les nodules pulmonaires de plus de 4mm.
Resumo:
La dermatite irritative est décrite comme une réaction réversible, non immunologique caractérisée par des lésions d'aspect très variable, allant de la simple rougeur jusqu'à la formation de bulles voire d'une nécrose, accompagnée de prurit ou d'une sensation de brûlure suite à I' application d'une substance chimique. Le teste de prédiction d'irritation cutanée est traditionnellement depuis les années 1940 le Test de Draize. Ce test consiste en l'application d'une substance chimique sur une peau rasée de lapin pendant 4h et de regarder à 24h si des signes cliniques d'irritations sont présents. Cette méthode critiquable autant d'un point de vue éthique que qualitative reste actuellement le teste le plus utilisé. Depuis le début des années 2000 de nouvelles méthodes in vitro se sont développées tel que le model d'épiderme humain recombiné (RHE). Il s agit d'une multicouche de kératinocyte bien différencié obtenu depuis une culture de don d'ovocyte. Cependant cette méthode en plus d'être très couteuse n'obtient au mieux que 76% de résultat similaire comparé au test in vivo humain. Il existe donc la nécessité de développer une nouvelle méthode in vitro qui simulerait encore mieux la réalité anatomique et physiologique retrouvée in vivo. Notre objectif a été de développer cette nouvelle méthode in vitro. Pour cela nous avons travaillé avec de la peau humaine directement prélevée après une abdominoplastie. Celle ci après préparation avec un dermatome, un couteau dont la lame est réglable pour découper l'épaisseur souhaitée de peau, est montée dans un système de diffusion cellulaire. La couche cornée est alors exposée de manière optimale à 1 ml de la substance chimique testée pendant 4h. L'échantillon de peau est alors fixé dans du formaldéhyde pour permettre la préparation de lames standards d'hématoxyline et éosine. L'irritation est alors investiguée selon des critères histopathologiques de spongioses, de nécroses et de vacuolisations cellulaires. Les résultats de ce.tte première batterie de testes sont plus que prometteurs. En effet, comparé au résultat in vivo, nous obtenons 100% de concordance pour les 4 même substances testes irritantes ou non irritantes, ce qui est supérieur au model d épiderme humain recombiné (76%). De plus le coefficient de variation entre les 3 différentes séries est inférieur à 0.1 ce qui montre une bonne reproductibilité dans un même laboratoire. Dans le futur cette méthode va devoir être testée avec un plus grand nombre de substances chimiques et sa reproductibilité évaluée dans différents laboratoires. Mais cette première evaluation, très encourageante, ouvre des pistes précieuses pour l'avenir des tests irritatifs.
Resumo:
Cet ouvrage réunit des spécialistes de l'étude de la bande dessinée qui proposent une série d'éclairages sur la manière dont les productions culturelles européennes ont diffusé, exploité, reformulé ou détourné l'imaginaire et le langage des comics venus d'outre-Atlantique. L'approche se veut résolument comparative, interculturelle et intermédiale : les chercheurs abordent autant Edgar P. Jacobs ou les récents albums de Serge Lehman que les séries TV de science-fiction britanniques ou les films d'Alain Resnais, et se proposent d'interroger la réception et les réappropriations de motifs et genres populaires situés au croisement d'influences et de références diverses. La production américaine est ainsi discutée dans toute sa richesse, des super-héros à l'underground, à travers des (re)lectures proposées en Europe.
Resumo:
Le cinéma des premiers temps, c'est-à-dire la production des deux premières décennies du cinéma, majoritairement caractérisée par des plans autonomes, des histoires courtes et un cadre fixe, n'a essentiellement connu d'études esthétiques que sous un angle narratologique, centrées notamment sur les prémisses du montage. Cette thèse déplace le regard - ou plus simplement le convoque -, en proposant de faire sa place à l'image. Car à qui sait les regarder, les premiers films dévoilent une parenté picturale jusqu'alors ignorée. Les images du cinéma des premiers temps - alors significativement appelées « tableaux » - se sont en effet définies à l'aune de la peinture, et même plus précisément par une imitation littérale des oeuvres d'art. Cette étude révèle que le tableau vivant, défini dans les termes stricts de la reconstitution d'une composition picturale par des acteurs vivants (que ceux-ci tiennent la pose ou non), est au fondement d'une esthétique du film des premiers temps. L'argument est structuré par les illustrations que l'auteure exhume (et compare, à la manière d'un spectaculaire et vivant jeu des 7 différences) parmi cette production filmique majoritairement disparue, brûlée, effacée, et ces références picturales aujourd'hui perdues, dénigrées, oubliées... Néanmoins ce ne sont pas quelques exemples isolés, mais un vrai phénomène historique qui est mis au jours à travers un corpus de films traversant tous les genres du cinéma des premiers temps, et prouvant que les productions du Film d'Art et des séries d'art ou le film Corner in Wheat (D.W. Griffith, 1909), souvent tenus comme un commencement, consistent bien plus en un aboutissement de cette tradition qui consiste à créer des images filmiques sous forme de tableaux vivants. Traçant d'abord ses « contexte et contours », le texte montre que la reconstitution picturale hante toutes les formes de spectacle à l'heure de l'émergence du cinéma. Les scènes de l'époque cultivent internationalement une esthétique de tableau vivant. Et la scène n'a pas l'exclusivité du phénomène : le médium photographique, dès son apparition, s'approprie le procédé, pour (chose jusqu'alors impossible) documenter l'effet visuel de ces reconstitutions, mais aussi pour les réinventer, en particulier pour se légitimer en tant que moyen artistique capable de rivaliser avec la peinture. Le cinéma émergent procède à une appropriation similaire du tableau vivant, qui fait le coeur de ce travail en y étant analysée selon quatre axes théoriques : Reproduire - où l'on découvre le caractère fondamentalement indirect de la filiation picturale de ces tableaux vivants, pris dans une dynamique de reproduction intermédiale qui en fait de véritables exercices de style, par lesquels les producteurs expérimentent et prennent conscience des moyens .artistiques de l'image filmique - ; Réincarner - où l'on étudie les problématiques engagées par la « mise en vie », et plus précisément la « mise en corps » des figures picturales (en particulier de Jésus et du nu), impliquant des enjeux de censure et un questionnement du regard sur l'art, sur le corps, et sur le statut de ces images qui semblent plus originales que l'original - ; Réanimer - où l'on examine la manière dont le cinéma mouvemente la peinture, en remettant la composition en action, en en redéployant l'instant prégnant, en expérimentant la pose gestuelle, l'arrêt du photogramme et tout le spectre de la temporalité cinématographique - ; enfin Recadrer - où l'on analyse le cadrage de ces tableaux repensés à l'aune de la caméra et de l'écran, qui nécessitent de complexifier les catégories théoriques baziniennes, et qui font émerger le tableau vivant comme un lieu de cristallisation d'une image filmique tabu/aire, offrant une résistance au montage linéaire. Or cette résistance se vérifiera jusque dans les films très contemporains, qui, en réactualisant le motif du tableau vivant, briseront la linéarité narrative du montage et feront rejaillir le poids artistique de l'image - ravivant en cela une esthétique fondatrice du cinéma.