987 resultados para Espace théâtral
Resumo:
Ce mémoire se penche sur les discours citoyens des Lavallois lorsqu’il est question de l'altérité ethnoculturelle dans leur quartier de banlieue. Cela implique de poser un regard sur le contexte spécifique de la ville de Laval pour y déchiffrer les arrimages entre rapport à l'espace et rapport à l'altérité ethnique dans l'expérience des répondants. Cette recherche qui se situe donc à la croisée des domaines des relations ethniques, de la géographie sociale et des études urbaines permet d’ancrer les représentations de l’altérité ethnoculturelle dans l’espace social et physique de la banlieue. Dans ce cadre, le discours de citoyens lavallois issus de deux quartiers ayant connu différents processus de croissance urbaine et de diversification ethnique sont analysés. Pour une majorité de répondants, les changements urbains récents témoignent d'une diversification de l'espace habité, ce qui est généralement mal perçu. Les manifestations d’altérité ethnoculturelle dans l’espace public et privé lavallois sont aussi associées à une détérioration du lien social dans la communauté du quartier. Au terme de cette étude, je soutiens que la présence d'immigrants est imbriquée dans les récents changements urbains dans la ville de Laval et que ces derniers sont directement associés à la perte du statut convoité de banlieue idéale.
Resumo:
La recherche d'informations s'intéresse, entre autres, à répondre à des questions comme: est-ce qu'un document est pertinent à une requête ? Est-ce que deux requêtes ou deux documents sont similaires ? Comment la similarité entre deux requêtes ou documents peut être utilisée pour améliorer l'estimation de la pertinence ? Pour donner réponse à ces questions, il est nécessaire d'associer chaque document et requête à des représentations interprétables par ordinateur. Une fois ces représentations estimées, la similarité peut correspondre, par exemple, à une distance ou une divergence qui opère dans l'espace de représentation. On admet généralement que la qualité d'une représentation a un impact direct sur l'erreur d'estimation par rapport à la vraie pertinence, jugée par un humain. Estimer de bonnes représentations des documents et des requêtes a longtemps été un problème central de la recherche d'informations. Le but de cette thèse est de proposer des nouvelles méthodes pour estimer les représentations des documents et des requêtes, la relation de pertinence entre eux et ainsi modestement avancer l'état de l'art du domaine. Nous présentons quatre articles publiés dans des conférences internationales et un article publié dans un forum d'évaluation. Les deux premiers articles concernent des méthodes qui créent l'espace de représentation selon une connaissance à priori sur les caractéristiques qui sont importantes pour la tâche à accomplir. Ceux-ci nous amènent à présenter un nouveau modèle de recherche d'informations qui diffère des modèles existants sur le plan théorique et de l'efficacité expérimentale. Les deux derniers articles marquent un changement fondamental dans l'approche de construction des représentations. Ils bénéficient notamment de l'intérêt de recherche dont les techniques d'apprentissage profond par réseaux de neurones, ou deep learning, ont fait récemment l'objet. Ces modèles d'apprentissage élicitent automatiquement les caractéristiques importantes pour la tâche demandée à partir d'une quantité importante de données. Nous nous intéressons à la modélisation des relations sémantiques entre documents et requêtes ainsi qu'entre deux ou plusieurs requêtes. Ces derniers articles marquent les premières applications de l'apprentissage de représentations par réseaux de neurones à la recherche d'informations. Les modèles proposés ont aussi produit une performance améliorée sur des collections de test standard. Nos travaux nous mènent à la conclusion générale suivante: la performance en recherche d'informations pourrait drastiquement être améliorée en se basant sur les approches d'apprentissage de représentations.
Resumo:
Tome 4 published by Gauthier-Villars et fils.
Resumo:
Includes bibliographical references.
Resumo:
1. D'Adam a Moïse; - Espace de 2500 ans. (Extrait des cinq Livres de Moïse) -- 2. De Josué a Néhémie; - Espace de 1000 ans. (extrait des livres historiques aui suivent le Pentateuque.) -- Récits détachés, Job - Ruth - Naaman - Jonas - Esther.
Resumo:
I. ptie. Géométrie plane. -- II. ptie. Géométrie dans l'espace. -- III. ptie. Complément de géométrie -- IV. ptie. Notions sur les courbes usuelles.
Resumo:
The cytochromes P450 are a large family of oxidative haemoproteins that are responsible for a wide variety of oxidative transformations in a variety of organisms. This review focuses upon the reactions catalyzed specifically by bacterial enzymes, which includes aliphatic hydroxylation, alkene epoxidation, aromatic hydroxylation, oxidative phenolic coupling, heteroatom oxidation and dealkylation, and multiple oxidations including C-C bond cleavage. The potential for the practical application of the oxidizing power of these enzymes is briefly discussed.
Resumo:
[GRAPHICS] Oxidation of tetradecanoic and hexadecanoic acids by cytochrome P450(Biol) (CYP107H1) produces mainly the 11-, 12-, and 13-hydroxy C-14 fatty acids and the 11- to 15-hydroxy C-16 fatty acids, respectively. In contrast to previous reports, terminal hydroxylation is not observed. The enantiospecificity of fatty acid hydroxylation by P450(Biol) was also determined, and the enzyme was shown to be moderately selective for production of the (R)-alcohols.
Resumo:
Thermal analysis methods (differential scanning calorimetry, thermogravimetric analysis, and dynamic mechanical thermal analysis) were used to characterize the nature of polyester-melamine coating matrices prepared under nonisothermal, high-temperature, rapid-cure conditions. The results were interpreted in terms of the formation of two interpenetrating networks with different glass-transition temperatures (a cocondensed polyester-melamine network and a self-condensed melamine-melamine network), a phenomenon not generally seen in chemically similar, isothermally cured matrices. The self-condensed network manifested at high melamine levels, but the relative concentrations of the two networks were critically dependent on the cure conditions. The optimal cure (defined in terms of the attainment of a peak metal temperature) was achieved at different oven temperatures and different oven dwell times, and so the actual energy absorbed varied over a wide range. Careful control of the energy absorption, by the selection of appropriate cure conditions, controlled the relative concentrations of the two networks and, therefore, the flexibility and hardness of the resultant coatings. (C) 2003 Wiley Periodicals, Inc. J Polym Sci Part A: Polym Cbem 41: 1603-1621, 2003.
Resumo:
Flow cytometry, in combination with advances in bead coding technologies, is maturing as a powerful high-throughput approach for analyzing molecular interactions. Applications of this technology include antibody assays and single nucleotide polymorphism mapping. This review describes the recent development of a microbead flow cytometric approach to analyze RNA-protein interactions and discusses emerging bead coding strategies that together will allow genome-wide identification of RNA-protein complexes. The microbead flow cytometric approach is flexible and provides new opportunities for functional genomic studies and small-molecule screening.
Resumo:
The radiation chemistry of poly(tetrafluoroethylene-co-hexafluoropropylene) (FEP) with a TFE mole fraction of 0.90 has been studied under vacuum using Co-60 gamma-radiation over a range of temperatures and absorbed doses. The radiolysis temperatures were 300, 363, 423, 523 and 543 K. New structure formation in the copolymers was analysed by solid-state F-19 NMR spectroscopy. The new structures formed in the copolymers have been identified and the G-values for the formation of new chemical structures have been investigated at 363 and 523 K. These two temperatures are just above and just below the polymer T-g and T-m, respectively. At the lower temperature, there was no evidence for any chain branching and an estimate of G(S) of 1.0 was obtained. A value of G(S) of 1.3 and a minimum value of G(X)(Y) of 1.3 were obtained at 523 K. (C) 2003 Society of Chemical Industry.
Resumo:
The central dogma of biology holds that genetic information normally flows from DNA to RNA to protein. As a consequence it has been generally assumed that genes generally code for proteins, and that proteins fulfil not only most structural and catalytic but also most regulatory functions, in all cells, from microbes to mammals. However, the latter may not be the case in complex organisms. A number of startling observations about the extent of non-protein-coding RNA (ncRNA) transcription in the higher eukaryotes and the range of genetic and epigenetic phenomena that are RNA-directed suggests that the traditional view of the structure of genetic regulatory systems in animals and plants may be incorrect. ncRNA dominates the genomic output of the higher organisms and has been shown to control chromosome architecture, mRNA turnover and the developmental timing of protein expression, and may also regulate transcription and alternative splicing. This paper re-examines the available evidence and suggests a new framework for considering and understanding the genomic programming of biological complexity, autopoletic development and phenotypic variation. BioEssays 25:930-939,2003. (C) 2003 Wiley Periodicals, Inc.
Resumo:
Children aged between 3 and 7 years were taught simple and dimension-abstracted oddity discrimination using learning-set training techniques, in which isomorphic problems with varying content were presented with verbal explanation and feedback. Following the training phase, simple oddity (SO), dimension-abstracted oddity with one or two irrelevant dimensions, and non-oddity (NO) tasks were presented (without feedback) to determine the basis of solution. Although dimension-abstracted oddity requires discrimination based on a stimulus that is different from the others, which are all the same as each other on the relevant dimension, this was not the major strategy. The data were more consistent with use of a simple oddity strategy by 3- to 4-year-olds, and a most different strategy by 6- to 7-year-olds. These strategies are interpreted as reducing task complexity. (C) 2002 Elsevier Science Inc. All rights reserved.