756 resultados para Narrative mapping
Resumo:
La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.
Resumo:
Ce mémoire étudie la dynamique communicationnelle et interactionnelle entre un joueur et un système de jeu par l’entremise des théories de l’énonciation et de la cognition. Par une analyse des jeux vidéo d’horreur en perspective à la première personne, il s’agit de conceptualiser une spirale heuristique de l’énonciation à partir des principes théoriques du Cycle Magique (Arsenault et Perron, 2009). Le propos se focalise sur la manière dont le joueur expérimente et traite les propositions ludiques et les propositions ludodiégétiques. L’intérêt est d’observer comment la valeur réflexive des marques de jeu et des marques de jouabilité sert à départager des relations d’attribution entre des formulations énonciatives (textuelles, verbales, visuelles, sonores ou procédurales) et des agents énonciatifs. Cette recherche rend compte, d’une part, de la gestion cognitive des faits énonciatifs et, d’autre part, de la modulation de leurs valeurs d’immédiateté-hypermédiateté et de leurs rapports de liaison/déliaison avec les agents énonciatifs. Il est expliqué que cette activité cognitive du joueur dirige la schématisation d’attitudes interactionnelles servant à structurer la signification – ludique ou narrative – des propositions ludiques générées au cours de l’activité de jeu. L’analyse cible des processus de mise en phase performative et de mise en phase méta-systémique ludique permettant la détermination de vecteurs d’immersion. En fonction du caractère d’opacité ou de transparence des vecteurs, il est question d’indiquer comment la posture d’expérience du joueur oscille entre un continuum immersif qui polarise une expérience systémique et une expérience diégétisée.
Resumo:
Essai présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Doctorat en psychologie option psychologie clinique
Resumo:
L’avènement récent des approches littéraires en études bibliques a suscité un regain d’intérêt pour le livre de Daniel, et attiré l’attention autant sur ses qualités littéraires que sur sa véritable fonction sociale. Le livre de Daniel comprend deux sections : six récits (Daniel 1-6) et quatre visions (Daniel 7-12). Les récits racontent la confrontation entre la royauté divine céleste et la royauté humaine terrestre, au travers l’histoire de Daniel et ses amis, jeunes israélites exilés à la cour babylonienne. La méthode narrative explore comment se concrétise la narrativité dans un texte en procédant à l’inventaire des caractéristiques fondamentales d’un récit : l’intrigue, les personnages, le cadre, la temporalité et la voix narrative. Ce mémoire propose une analyse narrative systématique des récits du livre canonique de Daniel afin d’examiner l’évolution narrative du concept théologique de royauté. Cette approche permet d’accéder à un niveau textuel où l’intertextualité, l’ironie, le symbolisme et la polysémie imprègnent fortement ces récits subversifs.
Resumo:
La digestion enzymatique des protéines est une méthode de base pour les études protéomiques ainsi que pour le séquençage en mode « bottom-up ». Les enzymes sont ajoutées soit en solution (phase homogène), soit directement sur le gel polyacrylamide selon la méthode déjà utilisée pour l’isolation de la protéine. Les enzymes protéolytiques immobilisées, c’est-à-dire insolubles, offrent plusieurs avantages tels que la réutilisation de l’enzyme, un rapport élevé d’enzyme-sur-substrat, et une intégration facile avec les systèmes fluidiques. Dans cette étude, la chymotrypsine (CT) a été immobilisée par réticulation avec le glutaraldehyde (GA), ce qui crée des particules insolubles. L’efficacité d’immobilisation, déterminée par spectrophotométrie d’absorbance, était de 96% de la masse totale de la CT ajouté. Plusieurs différentes conditions d’immobilisation (i.e., réticulation) tels que la composition/pH du tampon et la masse de CT durant la réticulation ainsi que les différentes conditions d’entreposage tels que la température, durée et humidité pour les particules GA-CT ont été évaluées par comparaison des cartes peptidiques en électrophorèse capillaire (CE) des protéines standards digérées par les particules. Les particules de GA-CT ont été utilisés pour digérer la BSA comme exemple d’une protéine repliée large qui requit une dénaturation préalable à la digestion, et pour digérer la caséine marquée avec de l’isothiocyanate de fluorescéine (FITC) comme exemple d’un substrat dérivé afin de vérifier l’activité enzymatique du GA-CT dans la présence des groupements fluorescents liés au substrat. La cartographie peptidique des digestions par les particules GA-CT a été réalisée par CE avec la détection par absorbance ultraviolet (UV) ou fluorescence induite par laser. La caséine-FITC a été, en effet, digérée par GA-CT au même degré que par la CT libre (i.e., soluble). Un microréacteur enzymatique (IMER) a été fabriqué par immobilisation de la CT dans un capillaire de silice fondu du diamètre interne de 250 µm prétraité avec du 3-aminopropyltriéthoxysilane afin de fonctionnaliser la paroi interne avec les groupements amines. Le GA a été réagit avec les groupements amine puis la CT a été immobilisée par réticulation avec le GA. Les IMERs à base de GA-CT étaient préparé à l’aide d’un système CE automatisé puis utilisé pour digérer la BSA, la myoglobine, un peptide ayant 9 résidus et un dipeptide comme exemples des substrats ayant taille large, moyenne et petite, respectivement. La comparaison des cartes peptidiques des digestats obtenues par CE-UV ou CE-spectrométrie de masse nous permettent d’étudier les conditions d’immobilisation en fonction de la composition et le pH du tampon et le temps de réaction de la réticulation. Une étude par microscopie de fluorescence, un outil utilisé pour examiner l’étendue et les endroits d’immobilisation GA-CT dans l’IMER, ont montré que l’immobilisation a eu lieu majoritairement sur la paroi et que la réticulation ne s’est étendue pas si loin au centre du capillaire qu’anticipée.
Resumo:
De plus en plus, le jeu vidéo se présente et se vit en termes de récit, ce qui n’est pas sans causer de nombreux maux de tête aux concepteurs de jeux comme aux théoriciens. Cet article s’intéresse au rôle central joué par le personnage dans la réconciliation de la narrativité et de l’interactivité à travers une étude théorique et critique de quelques stratégies employées par les concepteurs pour réaliser une fusion identitaire du joueur avec le personnage. Il y est question de deux postures d’immersion fictionnelle identifiées par Jean-Marie Schaeffer : l’identification allosubjective et la virtualisation identitaire. Ces postures sont liées à des processus de design de personnage : l’approche avatorielle, centrée sur le concept d’avatar et qui tente d’aplanir les différences intersubjectives, et l’approche actorielle, qui au contraire vise à les accroître en faisant du personnage un acteur autonome plutôt qu’un avatar. Ces deux pratiques ne sont pas mutuellement exclusives; au contraire, il est démontré que pour réaliser l’immersion fictionnelle, la plupart des jeux tentent de conserver une trace du joueur dans l’avatar, et une trace du personnage dans l’acteur. Des marqueurs d’allosubjectivité et de subjectivisation sont identifiés par l’analyse des jeux Metroid Prime, Duke Nukem 3D, Gears of War et Shadowrun. Enfin, l’article étudie également les rapports entre le ludique et le narratif selon le rôle actantiel du joueur et du personnage, écorchant au passage la convention du « héros muet » (silent protagonist) souvent rencontrée dans le jeu vidéo mais ultimement improductive.
Resumo:
The cutoff wavenumbers of higher order modes in circular eccentric guides are computed with the variational analysis combined with a conformal mapping. A conformal mapping is applied to the variational formulation, and the variational equation is solved by the finite-element method. Numerical results for TE and TM cutoff wavenumbers are presented for different distances between the centers and ratio of the radii. Comparisons with numerical results found in the literature validate the presented method
Vegetation Mapping and Analysis of Eravikulam National Park of Kerala Using Remote Sensing Technique
Resumo:
For the discrete-time quadratic map xt+1=4xt(1-xt) the evolution equation for a class of non-uniform initial densities is obtained. It is shown that in the t to infinity limit all of them approach the invariant density for the map.
Resumo:
Globalization is widely regarded as the rise of the borderless world. However in practice, true globalization points rather to a “spatial logic” by which globalization is manifested locally in the shape of insular space. Globalization in this sense is not merely about the creation of physical fragmentation of space but also the creation of social disintegration. This study tries to proof that global processes also create various forms of insular space leading also to specific social implications. In order to examine the problem this study looks at two cases: China’s Pearl River Delta (PRD) and Jakarta in Indonesia. The PRD case reveals three forms of insular space namely the modular, concealed and the hierarchical. The modular points to the form of enclosed factories where workers are vulnerable for human-right violations due to the absent of public control. The concealed refers to the production of insular space by subtle discrimination against certain social groups in urban space. And the hierarchical points to a production of insular space that is formed by an imbalanced population flow. The Jakarta case attempts to show more types of insularity in relation to the complexity of a mega-city which is shaped by a culture of exclusion. Those are dormant and hollow insularity. The dormant refers to the genesis of insular– radical – community from a culture of resistance. The last type, the hollow, points to the process of making a “pseudo community” where sense of community is not really developed as well as weak social relationship with its surrounding. Although global process creates various expressions of territorial insularization, however, this study finds that the “line of flight” is always present, where the border of insularity is crossed. The PRD’s produces vernacular modernization done by peasants which is less likely to be controlled by the politics of insularization. In Jakarta, the culture of insularization causes urban informalities that have no space, neither spatially nor socially; hence their state of ephemerality continues as a tactic of place-making. This study argues that these crossings possess the potential for reconciling venue to defuse the power of insularity.
Resumo:
The nondestructive determination of plant total dry matter (TDM) in the field is greatly preferable to the harvest of entire plots in areas such as the Sahel where small differences in soil properties may cause large differences in crop growth within short distances. Existing equipment to nondestructively determine TDM is either expensive or unreliable. Therefore, two radiometers for measuring reflected red and near-infrared light were designed, mounted on a single wheeled hand cart and attached to a differential Global Positioning System (GPS) to measure georeferenced variations in normalized difference vegetation index (NDVI) in pearl millet fields [Pennisetum glaucum (L.) R. Br.]. The NDVI measurements were then used to determine the distribution of crop TDM. The two versions of the radiometer could (i) send single NDVI measurements to the GPS data logger at distance intervals of 0.03 to 8.53 m set by the user, and (ii) collect NDVI values averaged across 0.5, 1, or 2 m. The average correlation between TDM of pearl millet plants in planting hills and their NDVI values was high (r^2 = 0.850) but varied slightly depending on solar irradiance when the instrument was calibrated. There also was a good correlation between NDVI, fractional vegetation cover derived from aerial photographs and millet TDM at harvest. Both versions of the rugged instrument appear to provide a rapid and reliable way of mapping plant growth at the field scale with a high spatial resolution and should therefore be widely tested with different crops and soil types.
Resumo:
This paper explores the concept of Value Stream Analysis and Mapping (VSA/M) as applied to Product Development (PD) efforts. Value Stream Analysis and Mapping is a method of business process improvement. The application of VSA/M began in the manufacturing community. PD efforts provide a different setting for the use of VSA/M. Site visits were made to nine major U.S. aerospace organizations. Interviews, discussions, and participatory events were used to gather data on (1) the sophistication of the tools used in PD process improvement efforts, (2) the lean context of the use of the tools, and (3) success of the efforts. It was found that all three factors were strongly correlated, suggesting success depends on both good tools and lean context. Finally, a general VSA/M method for PD activities is proposed. The method uses modified process mapping tools to analyze and improve process.