13 resultados para Columns

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les colonnes de plasma entretenues par un champ électrique (continu ou alternatif) à haute pression (p > 10 Torr) sont affectées par les phénomènes de contraction (réduction de la section radiale de la décharge) et de filamentation (fragmentation de la section de plasma en plusieurs filaments). La compréhension de ces phénomènes ainsi que le développement d’une méthode pouvant les supprimer demeurent une étape essentielle pour l’optimisation de certains procédés plasma. Dans cette optique, un premier objectif de notre travail était de déterminer les mécanismes à l’origine de la contraction et de la filamentation dans les décharges créées dans des gaz rares. Ainsi, nous avons montré que dans les plasmas micro-ondes contractés la cinétique de la décharge est contrôlée par les ions moléculaires et que la contraction est liée à l’influence du gradient de la température du gaz sur la concentration de ces ions. De plus, nous avons mis en évidence que la filamentation apparaît lorsque l’inhomogénéité radiale du champ électrique devient importante. Dans un second temps, nous avons développé une méthode de décontraction et de défilamentation de la décharge, qui consiste à ajouter à une décharge initiale de gaz rare des traces d’un autre gaz rare de plus faible potentiel d’ionisation. Dans le cas des plasmas décontractés, nous avons démontré que la cinétique de la décharge n’est plus contrôlée par les ions moléculaires, ce qui confirme bien l’importance de ces ions dans la description de la contraction. Pour terminer, nous avons étendu à la pression atmosphérique la technique d’absorption optique de mesure de densité des états métastables et résonnants à l’aide d’une lampe spectrale, ce qui n’avait été réalisé jusqu’ici que pour des pressions inférieures à 10 Torr. Ces états jouent un rôle essentiel dans l’ionisation des décharges contractées alors que dans les décharges décontractées leur désexcitation par les atomes du gaz adjuvant est l’étape fondamentale du processus de changement de cinétique menant à la décontraction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude teste l’hypothèse que le remodelage osseux dans le deuxième métacarpe peut être utilisé pour estimer l’âge à la mort. Les métacarpes utilisés dans cette analyse proviennent d’un cimetière d’Ontario, incluant des individus d’origine européenne (n=63; 34 hommes; 29 femmes). Leur âge varie de 19 à 61 ans (moyenne: 41,1±11,6). L’âge était connu ou a été estimé indépendamment à partir de la morphologie générale du squelette. À partir de lames minces coupées à la mi-diaphyse, la densité de population des ostéons (OPD; ostéons/mm2 intacts et fragmentaires) a été calculée pour huit colonnes du périoste à l’endoste, deux par quadrant anatomique. Les régressions par calibration classique ont produit une série d’équation pour les estimations de l’âge pour chaque sexe, sexes combinés, et en fonction de la latéralité. La méthode utilisée diminue l’efficacité des estimations mais elle a l’avantage de réduire les biais. Quand les sexes sont combinés, l’OPD est corrélé modérément mais significativement avec l’âge (droit r2= 0,35; gauche r2=0,28). Cependant, quand les hommes et les femmes sont analysés séparément, la corrélation entre l’OPD et l’âge dans l’échantillon féminin est meilleure (droit r2=0,48; gauche r2=0,39) alors que celle des hommes est réduite (droit r2=0,29; gauche r2=0,22). Ce résultat a déjà été observé dans d’autres études, mais n’est pas expliqué. Les résultats démontrent aussi une meilleure corrélation entre l’OPD et l’âge du côté droit que du côté gauche. Tous les résultats présentés ici supportent l’hypothèse que l’OPD du métacarpe est corrélé avec l’âge effectif (c’est-à-dire connu ou estimé), les régressions de l’OPD sur l’âge (droit-gauche combinés ou séparés, sexes combinés ou séparés) étant toutes significatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes sensoriels encodent l’information sur notre environnement sous la forme d’impulsions électriques qui se propagent dans des réseaux de neurones. Élucider le code neuronal – les principes par lesquels l’information est représentée dans l’activité des neurones – est une question fondamentale des neurosciences. Cette thèse constituée de 3 études (E) s’intéresse à deux types de codes, la synchronisation et l’adaptation, dans les neurones du cortex visuel primaire (V1) du chat. Au niveau de V1, les neurones sont sélectifs pour des propriétés comme l’orientation des contours, la direction et la vitesse du mouvement. Chaque neurone ayant une combinaison de propriétés pour laquelle sa réponse est maximale, l’information se retrouve distribuée dans différents neurones situés dans diverses colonnes et aires corticales. Un mécanisme potentiel pour relier l’activité de neurones répondant à des items eux-mêmes reliés (e.g. deux contours appartenant au même objet) est la synchronisation de leur activité. Cependant, le type de relations potentiellement encodées par la synchronisation n’est pas entièrement clair (E1). Une autre stratégie de codage consiste en des changements transitoires des propriétés de réponse des neurones en fonction de l’environnement (adaptation). Cette plasticité est présente chez le chat adulte, les neurones de V1 changeant d’orientation préférée après exposition à une orientation non préférée. Cependant, on ignore si des neurones spatialement proches exhibent une plasticité comparable (E2). Finalement, nous avons étudié la dynamique de la relation entre synchronisation et plasticité des propriétés de réponse (E3). Résultats principaux — (E1) Nous avons montré que deux stimuli en mouvement soit convergent soit divergent élicitent plus de synchronisation entre les neurones de V1 que deux stimuli avec la même direction. La fréquence de décharge n’était en revanche pas différente en fonction du type de stimulus. Dans ce cas, la synchronisation semble coder pour la relation de cocircularité dont le mouvement convergent (centripète) et divergent (centrifuge) sont deux cas particuliers, et ainsi pourrait jouer un rôle dans l’intégration des contours. Cela indique que la synchronisation code pour une information qui n’est pas présente dans la fréquence de décharge des neurones. (E2) Après exposition à une orientation non préférée, les neurones changent d’orientation préférée dans la même direction que leurs voisins dans 75% des cas. Plusieurs propriétés de réponse des neurones de V1 dépendent de leur localisation dans la carte fonctionnelle corticale pour l’orientation. Les comportements plus diversifiés des 25% de neurones restants sont le fait de différences fonctionnelles que nous avons observé et qui suggèrent une localisation corticale particulière, les singularités, tandis que la majorité des neurones semblent situés dans les domaines d’iso-orientation. (E3) Après adaptation, les paires de neurones dont les propriétés de réponse deviennent plus similaires montrent une synchronisation accrue. Après récupération, la synchronisation retourne à son niveau initial. Par conséquent, la synchronisation semble refléter de façon dynamique la similarité des propriétés de réponse des neurones. Conclusions — Cette thèse contribue à notre connaissance des capacités d’adaptation de notre système visuel à un environnement changeant. Nous proposons également des données originales liées au rôle potentiel de la synchronisation. En particulier, la synchronisation semble capable de coder des relations entre objets similaires ou dissimilaires, suggérant l’existence d’assemblées neuronales superposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L’objectif consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace d’entreposage de la table en minimisant la perte d’information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L’approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d’imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l’aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu’une table t de distribution de Student. L’estimation de nos données d’intérêt, soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Action française fut un mouvement idéologique et intellectuel marquant de l’histoire politique et culturelle de la Troisième république. Elle défendait, au moyen d’une rhétorique nationaliste et antirépublicaine, ainsi que d’un militantisme tapageur et d’un journal quotidien, l’idée d’une restauration de la monarchie en France sur les ruines d’une démocratie qu’elle estimait viciée et délétère. Durant la Grande Guerre, elle mit cependant en veilleuse son combat royaliste et se recentra sur son patriotisme. Cette approche la mena à appuyer pendant tout le conflit les gouvernements de défense nationale issus d’une Union sacrée résolument républicaine et à se poser comme l’un des principaux remparts contre les menaces à la nation, qu’elles soient intérieures ou extérieures. À l’issue du conflit, l’Action française était ainsi devenue un acteur politique reconnu et elle avait acquis une notoriété intellectuelle inédite. Cette volte-face notable n’a néanmoins été que très peu abordée de front dans l’historiographie du mouvement. Le présent mémoire vise à y remédier par l’examen du parcours politique et de l’évolution idéologique de l’Action française à partir de l’analyse des chroniques à saveur politique publiées dans son quotidien entre 1914 et 1918, ainsi que de rapports d’enquêtes de la Sûreté générale du ministère de l’Intérieur. Cette étude dresse un portrait plutôt bigarré de ce parcours et de cette évolution. En effet, au moment où le journal et les maîtres de l’Action française attinrent une renommée singulière grâce à leur discours et leurs campagnes guidés par l’intérêt national, son militantisme fut en contrepartie pratiquement annihilé par la mobilisation militaire. De même, malgré son adhésion de principe à la trêve politique que fut l’Union sacrée, l’Action française ne délaissa pas pour autant son procès idéologique du régime républicain et la valorisation de son projet royaliste. La façon dont l’Action française a commenté et pris part à la vie politique de la Grande Guerre révèle également cette équivoque, tout en offrant un portrait singulier des grands débats de cette période.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chronique politique, qui se trouve au coeur de la question de l’influence de la presse sur l’opinion publique, rencontre un vide dans les écrits scientifiques, du moins au Québec. L’étude de la chronique est pourtant des plus pertinentes dans le contexte actuel où les plateformes Web viennent renforcer la présence de commentateurs de tous les sujets. À partir d’une analyse systématique de chroniques politiques parues entre 1991 et 2011, ainsi que d’entrevues semi-dirigées avec des chroniqueurs politiques chevronnés, la présente étude décrit ce genre jusqu’ici peu étudié. Ainsi, les caractéristiques tels le format et la disposition de la chronique sont d’une part mises en évidence, alors que la diversité de sujets traités par les chroniqueurs politiques, d’autre part, montre que le genre jouit d’une grande liberté et que les auteurs peuvent choisir à propos de quoi ils veulent écrire et la manière de le faire. La critique négative reste omniprésente dans les chroniques, mais dans une moins grande proportion que ce à quoi il aurait été possible de s’attendre, plusieurs étant plutôt neutres et de nature explicative. Finalement, les propos des chroniqueurs prouvent que cette fonction s’accompagne d’une reconnaissance et d’un certain vedettariat, autant parmi la population qu’auprès de leurs collègues. Le tout permet de distinguer la chronique de l’ensemble des autres genres et pratiques journalistiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les simulations ont été implémentées avec le programme Java.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, les femmes deviennent de plus en plus présentes dans les hautes sphères du pouvoir politique. Cela a encouragé de nombreux scientifiques à s’intéresser à la question des femmes en politique, notamment en ce qui concerne leur traitement médiatique. Nous avons choisi d’observer le cas de Pauline Marois, qui a été la première femme d’un grand parti, en 2008, à se présenter aux élections provinciales. En étudiant les chroniques et les éditoriaux de La Presse et du Devoir, nous avons cherché à savoir si la chef du Parti québécois avait été traitée différemment par rapport à ses adversaires, Jean Charest, chef du Parti libéral du Québec et premier ministre sortant et Mario Dumont, chef de l’Action démocratique du Québec. Nous avons découvert entre autres que Pauline Marois avait été associée davantage aux enjeux sociaux alors que Jean Charest et Mario Dumont avaient été rapprochés à l’économie. En outre, les commentateurs ont beaucoup plus abordé la question de l’apparence dans le cas de la chef du Parti québécois, alors que cela a été minime chez les autres chefs. Même si plusieurs nuances s’appliquent, notamment le contexte de la campagne électorale, nous avons conclu que Pauline Marois avait eu une couverture médiatique différente, surtout en ce qui a trait à la variable de l’apparence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire de maîtrise est de caractériser la distribution axiale des plasmas tubulaires à la pression atmosphérique créés et entretenus par une onde électromagnétique de surface ainsi que d’explorer le potentiel de ces sources pour la synthèse de matériaux et de nanomatériaux. Un précédent travail de thèse, qui avait pour objectif de déterminer les mécanismes à l’origine de la contraction radiale du plasma créé dans des gaz rares, a mis en lumière un phénomène jusque-là inconnu dans les plasmas d’onde de surface (POS). En effet, la distribution axiale varie différemment selon la puissance incidente ce qui constitue une différence majeure par rapport aux plasmas à pression réduite. Dans ce contexte, nous avons réalisé une étude paramétrique des POS à la pression atmosphérique dans l’Ar. À partir de nos mesures de densité électronique, de température d’excitation et de densité d’atomes d’Ar dans un niveau métastable (Ar 3P2), résolues axialement, nous avons conclu que le comportement axial de l’intensité lumineuse avec la puissance n’est pas lié à un changement de la cinétique de la décharge (qui est dépendante de la température des électrons et de la densité d’atomes d’Ar métastables), mais plutôt à une distribution anormale de dissipation de puissance dans le plasma (reliée à la densité d’électrons). Plus précisément, nos résultats suggèrent que ce dépôt anormal de puissance provient d’une réflexion de l’onde dans le fort gradient de densité de charges en fin de colonne, un effet plus marqué pour de faibles longueurs de colonnes à plasma. Ensuite, nous avons effectué une étude spectroscopique du plasma en présence de précurseurs organiques, en particulier le HMDSO pour la synthèse de matériaux organosiliciés et l’IPT pour la synthèse de matériaux organotitaniques. Les POS à la PA sont caractérisés par des densités de charges très élevées (>10^13 cm^-3), permettant ainsi d’atteindre des degrés de dissociation des précurseurs nettement plus élevés que ceux d'autres plasmas froids à la pression atmosphérique comme les décharges à barrière diélectrique. Dans de tels cas, les matériaux synthétisés prennent la forme de nanopoudres organiques de taille inférieure à 100 nm. En présence de faibles quantités d’oxygène dans le plasma, nous obtenons plutôt des nanopoudres à base d’oxyde de silicium (HMDSO) ou à base de titanate de silicium (IPT), avec très peu de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat porte sur l’évolution du discours critique et théorique sur le cinéma développé par les écrivains français de l’entre-deux-guerres (1918-1939). À une époque où le cinéma prend de plus en plus de place dans la société, les écrivains s’intéressent à cette nouveauté, y réfléchissent et tentent d’élaborer des canevas à partir desquels peut se former une cinéologie, c’est-à-dire, une écriture sur le cinéma. De très nombreux textes (articles, chroniques, essais, manifestes, préfaces, biographies), issus de publications diverses (revues de cinéma, revues littéraires, revues d’art, presse quotidienne, édition), témoignent de l’engouement pour ce qui sera rapidement présenté comme un art. S’inscrivant dans un vaste réseau de diffusion, ces textes aux prémisses essayistiques laissent une place centrale à la réflexion et sont représentatifs des tendances et des enjeux de l'époque. Ainsi, ils montrent les débats autour de l’acceptation du cinéma comme art tout comme les prises de position au sujet du parlant, ils abordent les relations avec la forme de représentation rivale qu’est le théâtre, ils témoignent de la modernité du nouveau média et en proposent des définitions mettant l’accent sur certains de ses aspects – thématiques (comme le rêve et l’inconscient), pratiques (comme la dépendance vis-à-vis de l’industrie et de la finance) et techniques (comme la photogénie et le rythme). Cette production textuelle doit également être abordée comme une mémoire du cinéma où se côtoient des figures (Charlie Chaplin, Douglas Fairbanks, ou encore Erich von Stroheim) et des films (The Cheat, Le Cabinet du Docteur Caligari, ou Hallelujah!) dont les seules évocations fonctionnent comme des citations et des arguments appuyant les propos. En plus de la richesse des idées proposées, l'étude de la posture, l’analyse des renvois intertextuels et des inventions lexicales montrent que des écrivains comme Louis Aragon, Blaise Cendrars, Pierre Mac Orlan, Jean Prévost ou encore Marcel Pagnol, ont largement contribué à l'élaboration d’un pan du savoir cinématographique et au développement d'un discours qui place l’expérience du cinéma et celle du spectateur au centre des préoccupations cinéphiliques.