632 resultados para Decoding
Resumo:
This study investigated the effects of an explicit individualized phonemic awareness intervention administered by a speech-language pathologist to 4 prekindergarten children with phonological speech sound disorders. Research has demonstrated that children with moderate-severe expressive phonological disorders are at-risk for poor literacy development because they often concurrently exhibit weaknesses in the development of phonological awareness skills (Rvachew, Ohberg, Grawburg, & Heyding, 2003). The research design chosen for this study was a single subject multiple probe design across subjects. After stable baseline measures, the participants received explicit instruction in each of the three phases separately and sequentially. Dependent measures included same-day tests for Phase I (Phoneme Identity), Phase II (Phoneme Blending), and Phase III (Phoneme Segmentation), and generalization and maintenance tests for all three phases. All 4 participants made substantial progress in all three phases. These skills were maintained during weekly and biweekly maintenance measures. Generalization measures indicated that the participants demonstrated some increases in their mean total number of correct responses in Phase II and Phase III baseline while the participants were in Phase I intervention, and more substantial increases in Phase III baseline while the participants were in Phase II intervention. Increased generalization from Phases II to III could likely be explained due to the response similarities in those two skills (Cooper, Heron, & Heward, 2007). Based upon the findings of this study, speech-language pathologists should evaluate phonological awareness in the children in their caseloads prior to kindergarten entry, and should allocate time during speech therapy to enhance phonological awareness and letter knowledge to support the development of both skills concurrently. Also, classroom teachers should collaborate with speech-language pathologists to identify at-risk students in their classrooms and successfully implement evidence-based phonemic awareness instruction. Future research should repeat this study including larger groups of children, children with combined speech and language delays, children of different ages, and ESOL students
Resumo:
Portuguese textbook has been the focus of many investigations, nevertheless, the theme still has much to be discussed, reflected and broadened. This conviction mobilized us to perform this research, seeking to answer three questions: (1) how does the author of the textbook induce the student to give his opinion in comprehension questions of text in Portuguese textbook of 4th and 5thgrade? Which enunciative links are used by the author of the textbook in comprehension questions of text concerning to the assumption of enunciative responsability? And (3) Which enunciative links are used by the author of the textbook in comprehension questions of text concerning to the non assumption of enunciative responsability? In this direction, we define as objective to id entify, describe, analyze and interpret how the (non) assumption of enunciative responsibility materializes itself in Portuguese textbooks. The theme is echoed in the guidelines of the Parâmetros Curriculares Nacionais PCN (1998; 2001), who assume that all education committed to citizenship need to create conditions in order the student can develop his discursive competence" (BRAZIL, 1998, p. 23). This assertion of PCN (1998; 2001) is closely related to our research object, and therefore, it has corroborated to the accomplishment of this study. So, we analyze the comprehension questions of the texts that are elaborated by the authors of Portuguese textbooks of the 4th and 5th grade, used at public schools in the city of Natal-RN in 2010. As a theoretical basis, we have considered the postulates of Textual Analysis of Discourses ATD and Enunciative Linguistics. Our research was mainly based on the studies of Adam (2011), Nølke (1994; 2001; 2006; 2009; 2013), Nølke, Fløttum e Norén (2004) Rabatel (2004; 2005; 2008; 2009), Guentchéva (1994; 1996). Our data analysis revealed that the authors of Portuguese textbooks explore the reading comprehension, inducing students to answer questions that may be categorized like: (1) induction to the assumption of enunciative responsibility, (2) induction for non assumption the enunciative responsibility, (3) orientation for the study of vocabulary and grammar and (4) orientation of extra themes. The results from the comparison of the books of 4th and 5th grade of the two analyzed collections, we observed through the links of (non) responsability Nølke (1994; 2001; 2006; 2009; 2013), Nølke, Fløttum e Norén (2004), which in 79% of the questions, the authors induce the decoding of a content objectively inscribed in the text. In this sense, the notion of understanding a text is compromised, since it is limited to copying contents or transcription exercises, failing to consider the interactive use of language, or rather, failing to expand the student's knowledge in the (re)construction of the text of the meanings. This shows that there is a lack in the deal with the text that includes the textual discursive resources in the reading activities in Portuguese textbooks. We recall, in this direction, the works of Marcuschi (2005), Antunes (2003, 2005), and Bunzen Rojo (2008), among others authors who contributed greatly to orient the choice of Portuguese textbooks. Finally, we believe that the study about the enunciative responsibility phenomenon in Portuguese texto oks offers, above all, instruments in order to the interlocutors identify the elements present in the enunciation and the effects that these elements bring to the (re) construction of the meanings in texts that they read and write in the classroom.
Resumo:
Repetitive Ca2+ transients in dendritic spines induce various forms of synaptic plasticity by transmitting information encoded in their frequency and amplitude. CaMKII plays a critical role in decoding these Ca2+ signals to initiate long-lasting synaptic plasticity. However, the properties of CaMKII that mediate Ca2+ decoding in spines remain elusive. Here, I measured CaMKII activity in spines using fast-framing two-photon fluorescence lifetime imaging. Following each repetitive Ca2+ elevations, CaMKII activity increased in a stepwise manner. This signal integration, at the time scale of seconds, critically depended on Thr286 phosphorylation. In the absence of Thr286 phosphorylation, only by increasing the frequency of repetitive Ca2+ elevations could high peak CaMKII activity or plasticity be induced. In addition, I measured the association between CaMKII and Ca2+/CaM during spine plasticity induction. Unlike CaMKII activity, association of Ca2+/CaM to CaMKII plateaued at the first Ca2+ elevation event. This result indicated that integration of Ca2+ signals was initiated by the binding of Ca2+/CaM and amplified by the subsequent increases in Thr286-phosphorylated form of CaMKII. Together, these findings demonstrate that CaMKII functions as a leaky integrator of repetitive Ca2+ signals during the induction of synaptic plasticity, and that Thr286 phosphorylation is critical for defining the frequencies of such integration.
Resumo:
Genetic decoding is not ‘frozen’ as was earlier thought, but dynamic. One facet of this is frameshifting that often results in synthesis of a C-terminal region encoded by a new frame. Ribosomal frameshifting is utilized for the synthesis of additional products, for regulatory purposes and for translational ‘correction’ of problem or ‘savior’ indels. Utilization for synthesis of additional products occurs prominently in the decoding of mobile chromosomal element and viral genomes. One class of regulatory frameshifting of stable chromosomal genes governs cellular polyamine levels from yeasts to humans. In many cases of productively utilized frameshifting, the proportion of ribosomes that frameshift at a shift-prone site is enhanced by specific nascent peptide or mRNA context features. Such mRNA signals, which can be 5′ or 3′ of the shift site or both, can act by pairing with ribosomal RNA or as stem loops or pseudoknots even with one component being 4 kb 3′ from the shift site. Transcriptional realignment at slippage-prone sequences also generates productively utilized products encoded trans-frame with respect to the genomic sequence. This too can be enhanced by nucleic acid structure. Together with dynamic codon redefinition, frameshifting is one of the forms of recoding that enriches gene expression.
Resumo:
The performance of multiuser dual-hop relaying over mixed radio frequency/free-space optical (RF/FSO) links is investigated. RF links are used for the simultaneous data transmission from m single-antenna sources to the relay, which is equipped with n ≥ m receive antennas and a photo-aperture transmitter. The relay operates under the decode-and-forward protocol and utilizes the popular ordered V-BLAST technique to successively decode each user's transmitted stream. A common norm-based ordering approach is adopted, where the streams are decoded in an ascending order. After the V-BLAST decoding, the relay retransmits the initial information to the destination, which is equipped with a photo-detector, via a point-to-point FSO link in m consecutive timeslots. Analytical expressions for the end-to-end outage probability and average symbol error probability of each user are derived. Some engineering insights are manifested, such as the diversity order, the impact of the pointing error displacement on the FSO link and the severity on the turbulence-induced channel fading.
Resumo:
Die Fähigkeit, geschriebene Texte zu verstehen, d.h. eine kohärente mentale Repräsentation von Textinhalten zu erstellen, ist eine notwendige Voraussetzung für eine erfolgreiche schulische und außerschulische Entwicklung. Es ist daher ein zentrales Anliegen des Bildungssystems Leseschwierigkeiten frühzeitig zu diagnostizieren und mithilfe zielgerichteter Interventionsprogramme zu fördern. Dies erfordert ein umfassendes Wissen über die kognitiven Teilprozesse, die dem Leseverstehen zugrunde liegen, ihre Zusammenhänge und ihre Entwicklung. Die vorliegende Dissertation soll zu einem umfassenden Verständnis über das Leseverstehen beitragen, indem sie eine Auswahl offener Fragestellungen experimentell untersucht. Studie 1 untersucht inwieweit phonologische Rekodier- und orthographische Dekodierfertigkeiten zum Satz- und Textverstehen beitragen und wie sich beide Fertigkeiten bei deutschen Grundschüler(inne)n von der 2. bis zur 4. Klasse entwickeln. Die Ergebnisse legen nahe, dass beide Fertigkeiten signifikante und eigenständige Beiträge zum Leseverstehen leisten und dass sich ihr relativer Beitrag über die Klassenstufen hinweg nicht verändert. Darüber hinaus zeigt sich, dass bereits deutsche Zweitklässler(innen) den Großteil geschriebener Wörter in altersgerechten Texten über orthographische Vergleichsprozesse erkennen. Nichtsdestotrotz nutzen deutsche Grundschulkinder offenbar kontinuierlich phonologische Informationen, um die visuelle Worterkennung zu optimieren. Studie 2 erweitert die bisherige empirische Forschung zu einem der bekanntesten Modelle des Leseverstehens—der Simple View of Reading (SVR, Gough & Tunmer, 1986). Die Studie überprüft die SVR (Reading comprehension = Decoding x Comprehension) mithilfe optimierter und methodisch stringenter Maße der Modellkonstituenten und überprüft ihre Generalisierbarkeit für deutsche Dritt- und Viertklässler(innen). Studie 2 zeigt, dass die SVR einer methodisch stringenten Überprüfung nicht standhält und nicht ohne Weiteres auf deutsche Dritt- und Viertklässler(innen) generalisiert werden kann. Es wurden nur schwache Belege für eine multiplikative Verknüpfung von Dekodier- (D) und Hörverstehensfertigkeiten (C) gefunden. Der Umstand, dass ein beachtlicher Teil der Varianz im Leseverstehen (R) nicht durch D und C aufgeklärt werden konnte, deutet darauf hin, dass das Modell nicht vollständig ist und ggf. durch weitere Komponenten ergänzt werden muss. Studie 3 untersucht die Verarbeitung positiv-kausaler und negativ-kausaler Kohärenzrelationen bei deutschen Erst- bis Viertklässler(inne)n und Erwachsenen im Lese- und Hörverstehen. In Übereinstimmung mit dem Cumulative Cognitive Complexity-Ansatz (Evers-Vermeul & Sanders, 2009; Spooren & Sanders, 2008) zeigt Studie 3, dass die Verarbeitung negativ-kausaler Kohärenzrelationen und Konnektoren kognitiv aufwändiger ist als die Verarbeitung positiv-kausaler Relationen. Darüber hinaus entwickelt sich das Verstehen beider Kohärenzrelationen noch über die Grundschulzeit hinweg und ist für negativ-kausale Relationen am Ende der vierten Klasse noch nicht abgeschlossen. Studie 4 zeigt und diskutiert die Nützlichkeit prozess-orientierter Lesetests wie ProDi- L (Richter et al., in press), die individuelle Unterschiede in den kognitiven Teilfertigkeiten des Leseverstehens selektiv erfassen. Hierzu wird exemplarisch die Konstruktvalidität des ProDi-L-Subtests ‚Syntaktische Integration’ nachgewiesen. Mittels explanatorischer Item- Repsonse-Modelle wird gezeigt, dass der Test Fertigkeiten syntaktischer Integration separat erfasst und Kinder mit defizitären syntaktischen Fertigkeiten identifizieren kann. Die berichteten Befunde tragen zu einem umfassenden Verständnis der kognitiven Teilfertigkeiten des Leseverstehens bei, das für eine optimale Gestaltung des Leseunterrichts, für das Erstellen von Lernmaterialien, Leseinstruktionen und Lehrbüchern unerlässlich ist. Darüber hinaus stellt es die Grundlage für eine sinnvolle Diagnose individueller Leseschwierigkeiten und für die Konzeption adaptiver und zielgerichteter Interventionsprogramme zur Förderung des Leseverstehens bei schwachen Leser(inne)n dar.
Resumo:
Abstract: Audiovisual Storytelling and Ideological Horizons: Audiences, Cultural Contexts and Extra-textual Meaning Making In a society characterized by mediatization people are to an increasing degree dependent on mediated narratives as a primary means by which we make sense of our experience through time and our place in society (Hoover 2006, Lynch 2007, Hjarvard 2008, Hjarvard & Lövheim 2012). American media scholar Stewart Hoover points to symbols and scripts available in the media environment, what he call the “symbolic inventory” out of which individuals make religious or spiritual meaning (Hoover 2006: 55). Vernacular meaning-making embedded in everyday life among viewers’ dealing with fiction narratives in films and tv-series highlight a need for a more nuanced understanding of complex audiovisual storytelling. Moving images provide individuals with stories by which reality is maintained and by which humans construct ordered micro-universes for themselves using film as a resource for moral assessment and ideological judgments about life (Plantinga 2009, Johnston 2010, Axelson 2015). Important in this theoretical context are perspectives on viewers’ moral frameworks (Zillman 2005, Andersson & Andersson 2005, Frampton 2006, Avila 2007).This paper presentation will focus on ideological contested meaning making where audiences of different cultural background engage emotionally with filmic narratives, possibly eliciting ideological and spiritual meaning-making related to viewers’ personal world views. Through the example of the Homeland tv-series I want to discuss how spectators’ cultural, religious, political and ideological identities could be understood playing a role in the interpretative process of decoding content. Is it possible to trace patterns of different receptions of the multilayered and ambiguous story depicted in Homeland by religiously engaged Christians and Moslems as well as non-believers, in America, Europe and Middle East? How is the fiction narrative dealt with by spectators in the audience in different cultural contexts and how is it interpreted through the process of extra-text evaluation and real world2understanding in a global era preoccupied with war on terror? The presentation will also discuss methodological considerations about how to reach out to audiences anchored in different cultural context.
Resumo:
Cette thèse de doctorat s’intéresse à mieux comprendre, d’une part, ce qui influence la sécrétion de cortisol salivaire, et d’autre part, ce qui influence l’épuisement professionnel. Plusieurs objectifs en découlent. D’abord, elle vise à mieux cerner la contribution des conditions de l’organisation du travail (utilisation des compétences, autorité décisionnelle, demandes psychologiques, demandes physiques, horaire de travail irrégulier, nombre d’heures travaillées, soutien social des collègues, soutien social des superviseurs, insécurité d’emploi) sur la sécrétion de cortisol salivaire, ainsi que le rôle modérateur de certains traits de personnalité (extraversion, agréabilité, névrosisme, conscience, ouverture d’esprit, estime de soi, centre de contrôle) sur la relation entre les conditions de l’organisation du travail et la sécrétion de cortisol salivaire. Par ailleurs, cette thèse vise à établir la contribution des conditions de l’organisation du travail sur l’épuisement professionnel, ainsi que le rôle modérateur des traits de personnalité sur la relation entre les conditions de l’organisation du travail et l’épuisement professionnel. Finalement, cette thèse vise à vérifier si la sécrétion de cortisol salivaire joue un rôle médiateur sur la relation entre les conditions de l’organisation du travail et l’épuisement professionnel, ainsi qu’à identifier les effets de médiation modérés par les traits de personnalité sur la relation entre les conditions de l’organisation du travail et la sécrétion de cortisol salivaire. Ces objectifs sont inspirés de nombreuses limites observées dans la littérature, principalement l’intégration de déterminants à la fois biologiques, psychologiques et du travail dans la compréhension de l’épuisement professionnel. La thèse propose un modèle conceptuel qui tente de savoir comment ces différents stresseurs entraînent une dérégulation de la sécrétion de cortisol dans la salive des travailleurs. Ensuite, ce modèle conceptuel vise à voir si cette dérégulation s’associe à l’épuisement professionnel. Finalement, ce modèle conceptuel cherche à expliquer comment la personnalité peut influencer la manière dont ces variables sont reliées entre elles, c’est-à-dire de voir si la personnalité joue un rôle modérateur. Ce modèle découle de quatre théories particulières, notamment la perspective biologique de Selye (1936). Les travaux de Selye s’orientent sur l’étude de la réaction physiologique d’un organisme soumis à un stresseur. Dans ces circonstances, l’organisme est en perpétuel effort de maintien de son équilibre (homéostasie) et ne tolère que très peu de modifications à cet équilibre. En cas de modifications excessives, une réponse de stress est activée afin d’assurer l’adaptation en maintenant l’équilibre de base de l’organisme. Ensuite, le modèle conceptuel s’appuie sur le modèle de Lazarus et Folkman (1984) qui postule que la réponse de stress dépend plutôt de l’évaluation que font les individus de la situation stressante, et également sur le modèle de Pearlin (1999) qui postule que les individus exposés aux mêmes stresseurs ne sont pas nécessairement affectés de la même manière. Finalement, le modèle conceptuel de cette thèse s’appuie sur le modèle de Marchand (2004) qui postule que les réactions dépendent du décodage que font les acteurs des contraintes et ressources qui les affectent. Diverses hypothèses émergent de cette conceptualisation théorique. La première est que les conditions de l’organisation du travail contribuent directement aux variations de la sécrétion de cortisol salivaire. La deuxième est que les conditions de l’organisation du travail contribuent directement à l’épuisement professionnel. La troisième est que la sécrétion de cortisol salivaire médiatise la relation entre les conditions de l’organisation du travail et l’épuisement professionnel. La quatrième est que la relation entre les conditions de l’organisation du travail et la sécrétion de cortisol salivaire est modérée par les traits de personnalité. La cinquième est que la relation entre les conditions de l’organisation du travail, la sécrétion de cortisol salivaire et l’épuisement professionnel est modérée par les traits de personnalité. Des modèles de régression multiniveaux et des analyses de cheminement de causalité ont été effectués sur un échantillon de travailleurs canadiens provenant de l’étude SALVEO. Les résultats obtenus sont présentés sous forme de trois articles, soumis pour publication, lesquels constituent les chapitres 4 à 6 de cette thèse. Dans l’ensemble, le modèle intégrateur biopsychosocial proposé dans le cadre de cette thèse de doctorat permet de mieux saisir la complexité de l’épuisement professionnel qui trouve une explication biologique, organisationnelle et individuelle. Ce constat permet d’offrir une compréhension élargie et multiniveaux et assure l’avancement des connaissances sur une problématique préoccupante pour les organisations, la société ainsi que pour les travailleurs. Effectivement, la prise en compte des traits de personnalité et de la sécrétion du cortisol salivaire dans l’étude de l’épuisement professionnel assure une analyse intégrée et plus objective. Cette thèse conclue sur les implications de ces résultats pour la recherche, et sur les retombées qui en découlent pour les milieux de travail.
Resumo:
La présente thèse examine les associations entre les dimensions du TDAH et les habiletés en lecture sur les plans phénotypique, génétique et cognitif. En premier lieu, les associations entre les dimensions du TDAH (inattention et hyperactivité/impulsivité) et les habiletés en lecture (décodage et compréhension en lecture) chez des enfants au début du primaire (6-8 ans) ont été examinées. Les résultats révèlent des associations similaires. Toutefois, seules celles entre l’inattention et les habiletés en lecture demeurent après que l’hyperactivité/impulsivité, les symptômes de trouble du comportement et les habiletés non verbales aient été contrôlés. De plus, les associations entre l’inattention et les habiletés en lecture s’expliquent en grande partie par des facteurs génétiques. En second lieu, les associations entre les dimensions du TDAH et les habiletés en lecture (lecture de mots et exactitude/vitesse lors de la lecture d’un texte) ont été étudiées à 14-15 ans. Seule l’inattention demeure associée aux habiletés en lecture après que l’hyperactivité/impulsivité, les habiletés verbales et les habiletés non verbales aient été contrôlées. L’inattention et les habiletés en lecture sont aussi corrélées sur le plan génétique, mais ces corrélations deviennent non significatives lorsque les habiletés verbales sont contrôlées. En dernier lieu, des habiletés cognitives ont été étudiées comme mécanismes sous-jacents potentiels de l’association entre l’inattention et les habiletés en lecture (décodage et compréhension en lecture) à l’enfance. Il apparait que la conscience phonologique, la vitesse de dénomination de chiffres, le traitement temporel bimodal et le vocabulaire sont des médiateurs de l’association entre l’inattention et le décodage alors que la conscience phonologique, la vitesse de dénomination de chiffres et de couleurs et le vocabulaire sont des médiateurs de l’association entre l’inattention et la compréhension en lecture. De plus, des facteurs génétiques communs ont été observés entre certains médiateurs (conscience phonologique, vitesse de dénomination des chiffres et traitement temporel bimodal), l’inattention et le décodage. Somme toute, la présente thèse montre que des facteurs génétiques expliquent en partie ces associations à l’enfance et l’adolescence. Des médiateurs cognitifs sous-tendent ces associations, possiblement par des processus génétiques et environnementaux qui devront être précisés dans le futur.
Resumo:
Ce mémoire doctoral s’intéresse aux pratiques parentales en littéracie comme prédicteurs des différences précoces en lecture. Les études antérieures ont rapporté des liens préférentiels entre deux types de pratiques parentales en littéracie, deux habiletés préalables à la lecture et le développement de la lecture au primaire. D’une part, l’enseignement des lettres par le parent, une pratique formelle, contribuait à la connaissance des lettres, laquelle était un prédicteur des habiletés de lecture de l’enfant. D’autre part, la lecture parent-enfant ainsi que l’exposition aux livres, des pratiques informelles, prédisaient le développement langagier de l’enfant, lequel contribuerait plus spécifiquement à la compréhension en lecture. L’hypothèse selon laquelle des processus de médiation sont impliqués a été proposé par plusieurs chercheurs mais, aucun n’avait testé formellement cette hypothèse. De plus, la contribution des pratiques parentales en littéracie était évaluée une seule fois, en maternelle ou au début de la première année du primaire, ce qui ne permettait pas d’identifier l’âge vers lequel il devient pertinent d’introduire l’enfant au monde littéraire. L’objectif du mémoire était donc d’évaluer formellement un modèle de double médiation à l’aide d’analyses acheminatoires tout en considérant l’exposition à la littéracie tout au long de la petite enfance. En accord avec les liens préférentiels suggérés dans la littérature, on a constaté que l’enseignement des lettres par les parents à 4 et 5 ans prédisent indirectement les habiletés en lecture (8 ans; décodage et compréhension en lecture) via leur contribution à la connaissance des lettres (5 ans). Également, le vocabulaire réceptif de l’enfant (5 ans) était un médiateur des contributions de la lecture parent-enfant à 2.5, 4 et 5 ans, à la compréhension en lecture (8 ans). Ce mémoire souligne l’importance d’initier les enfants à la littéracie en bas âge afin de supporter leur acquisition subséquente de la lecture.
Resumo:
A survey of primary schools in England found that girls outperform boys in English across all phases (Ofsted in Moving English forward. Ofsted, Manchester, 2012). The gender gap remains an on-going issue in England, especially for reading attainment. This paper presents evidence of gender differences in learning to read that emerged during the development of a reading scheme for 4- and 5-year-old children in which 372 children from Reception classes in sixteen schools participated in 12-month trials. There were three arms per trial: Intervention non-PD (non-phonically decodable text with mixed methods teaching); Intervention PD (phonically decodable text with mixed methods teaching); and a ‘business as usual’ control condition SP (synthetic phonics and decodable text). Assignment to Intervention condition was randomised. Standardised measures of word reading and comprehension were used. The research provides statistically significant evidence suggesting that boys learn more easily using a mix of whole-word and synthetic phonics approaches. In addition, the evidence indicates that boys learn to read more easily using the natural-style language of ‘real’ books including vocabulary which goes beyond their assumed decoding ability. At post-test, boys using the nonphonically decodable text with mixed methods (Intervention A) were 8 months ahead in reading comprehension compared to boys using a wholly synthetic phonics approach.
Resumo:
Cette thèse présente la découverte de nouveaux inhibiteurs de l’amidotransférase ARNt-dépendante (AdT), et résume les connaissances récentes sur la biosynthèse du Gln-ARNtGln et de l’Asn-ARNtAsn par la voie indirecte chez la bactérie Helicobacter pylori. Dans le cytoplasme des eucaryotes, vingt acides aminés sont liés à leur ARNt correspondant par vingt aminoacyl-ARNt synthétases (aaRSs). Ces enzymes sont très spécifiques, et leur fonction est importante pour le décodage correct du code génétique. Cependant, la plupart des bactéries, dont H. pylori, sont dépourvues d’asparaginyl-ARNt synthétase et/ou de glutaminyl-ARNt synthétase. Pour former le Gln-ARNtGln, H. pylori utilise une GluRS noncanonique nommée GluRS2 qui glutamyle spécifiquement l’ARNtGln ; ensuite, une AdT trimérique, la GatCAB corrige le Glu-ARNtGln mésapparié en le transamidant pour former le Gln-ARNtGln, qui lira correctement les codons glutamine pendant la biosynthèse des protéines sur les ribosomes. La formation de l’Asn-ARNtAsn est similaire à celle du Gln-ARNtGln, et utilise la même GatCAB et une AspRS non-discriminatrice. Depuis des années 2000, la GatCAB est considérée comme une cible prometteuse pour le développement de nouveaux antibiotiques, puisqu’elle est absente du cytoplasme de l’être humain, et qu’elle est encodée dans le génome de plusieurs bactéries pathogènes. Dans le chapitre 3, nous présentons la découverte par la technique du « phage display » de peptides cycliques riches en tryptophane et en proline, et qui inhibent l’activité de la GatCAB de H. pylori. Les peptides P10 (CMPVWKPDC) et P9 (CSAHNWPNC) inhibent cette enzyme de façon compétitive par rapport au substrat Glu-ARNtGln. Leur constante d’inhibition (Ki) est 126 μM pour P10, et 392 μM pour P9. Des modèles moléculaires ont montré qu’ils lient le site actif de la réaction de transmidation catalysée par la GatCAB, grâce à la formation d’une interaction π-π entre le résidu Trp de ces peptides et le résidu Tyr81 de la sous-unité GatB, comme fait le A76 3’-terminal de l’ARNt. Dans une autre étude concernant des petits composés contenant un groupe sulfone, et qui mimiquent l’intermédiaire de la réaction de transamidation, nous avons identifié des composés qui inhibent la GatCAB de H. pylori de façon compétitive par rapport au substrat Glu-ARNtGln. Cinq fois plus petits que les peptides cycliques mentionnés plus haut, ces composés inhibent l’activité de la GatCAB avec des Ki de 139 μM pour le composé 7, et de 214 μM pour le composé 4. Ces inhibiteurs de GatCAB pourraient être utiles pour des études mécanistiques, et pourraient être des molécules de base pour le développement de nouvelles classes d’antibiotiques contre des infections causées par H. pylori.
Resumo:
The non-standard decoding of the CUG codon in Candida cylindracea raises a number of questions about the evolutionary process of this organism and other species Candida clade for which the codon is ambiguous. In order to find some answers we studied the transcriptome of C. cylindracea, comparing its behavior with that of Saccharomyces cerevisiae (standard decoder) and Candida albicans (ambiguous decoder). The transcriptome characterization was performed using RNA-seq. This approach has several advantages over microarrays and its application is booming. TopHat and Cufflinks were the software used to build the protocol that allowed for gene quantification. About 95% of the reads were mapped on the genome. 3693 genes were analyzed, of which 1338 had a non-standard start codon (TTG/CTG) and the percentage of expressed genes was 99.4%. Most genes have intermediate levels of expression, some have little or no expression and a minority is highly expressed. The distribution profile of the CUG between the three species is different, but it can be significantly associated to gene expression levels: genes with fewer CUGs are the most highly expressed. However, CUG content is not related to the conservation level: more and less conserved genes have, on average, an equal number of CUGs. The most conserved genes are the most expressed. The lipase genes corroborate the results obtained for most genes of C. cylindracea since they are very rich in CUGs and nothing conserved. The reduced amount of CUG codons that was observed in highly expressed genes may be due, possibly, to an insufficient number of tRNA genes to cope with more CUGs without compromising translational efficiency. From the enrichment analysis, it was confirmed that the most conserved genes are associated with basic functions such as translation, pathogenesis and metabolism. From this set, genes with more or less CUGs seem to have different functions. The key issues on the evolutionary phenomenon remain unclear. However, the results are consistent with previous observations and shows a variety of conclusions that in future analyzes should be taken into consideration, since it was the first time that such a study was conducted.
Resumo:
With the rapid development of Internet technologies, video and audio processing are among the most important parts due to the constant requirements of high quality media contents. Along with the improvement of network environment and the hardware equipment, this demand is becoming more and more imperious, people prefer high quality videos and audios as well as the net streaming media resources. FFmpeg is a set of open source program about the A/V decoding. Many commercial players use FFmpeg as their displaying cores. This paper designed a simple and easy-to-use video player based on FFmpeg. The first part is about the basic theories and related knowledge of video displaying, including some concepts like data formats, streaming media data, video coding and decoding. In a word, the realization of the video player depend on the a set of video decoding process. The general idea about the process is to get the video packets from the Internet, to read the related protocols and de-encapsulate the protocols, to de-encapsulate the packaging data and to get encoded formats data, to decode them to pixel data that can be displayed directly through graphics cards. During the coding and decoding process, there could be different degrees of data losing, which is called lossy compression, but it usually does not influence the quality of user experiences. The second part is about the principle of the FFmpeg decoding process, that is one of the key point of the paper. In this project, FFmpeg is used for the main decoding task, by call some main functions and structures from FFmpeg class libraries, packaging video formats could be transfer to pixel data, after getting the pixel data, SDL is used for the displaying process. The third part is about the SDL displaying flow. Similarly, it would invoke some important displaying functions from SDL class libraries to realize the function, though SDL is able to do not only displaying task, but also many other game playing process. After that, a independent video displayer is completed, it is provided with all the key function of a player. The fourth part make a simple users interface for the player based on the MFC program, it enable the player could be used by most people. At last, in consideration of the mobile Internet’s blossom, people nowadays can hardly ever drop their mobile phones, there is a brief introduction about how to transplant the video player to Android platform which is one of the most used mobile systems.
Resumo:
Over the past few years, the number of wireless networks users has been increasing. Until now, Radio-Frequency (RF) used to be the dominant technology. However, the electromagnetic spectrum in these region is being saturated, demanding for alternative wireless technologies. Recently, with the growing market of LED lighting, the Visible Light Communications has been drawing attentions from the research community. First, it is an eficient device for illumination. Second, because of its easy modulation and high bandwidth. Finally, it can combine illumination and communication in the same device, in other words, it allows to implement highly eficient wireless communication systems. One of the most important aspects in a communication system is its reliability when working in noisy channels. In these scenarios, the received data can be afected by errors. In order to proper system working, it is usually employed a Channel Encoder in the system. Its function is to code the data to be transmitted in order to increase system performance. It commonly uses ECC, which appends redundant information to the original data. At the receiver side, the redundant information is used to recover the erroneous data. This dissertation presents the implementation steps of a Channel Encoder for VLC. It was consider several techniques such as Reed-Solomon and Convolutional codes, Block and Convolutional Interleaving, CRC and Puncturing. A detailed analysis of each technique characteristics was made in order to choose the most appropriate ones. Simulink models were created in order to simulate how diferent codes behave in diferent scenarios. Later, the models were implemented in a FPGA and simulations were performed. Hardware co-simulations were also implemented to faster simulation results. At the end, diferent techniques were combined to create a complete Channel Encoder capable of detect and correct random and burst errors, due to the usage of a RS(255,213) code with a Block Interleaver. Furthermore, after the decoding process, the proposed system can identify uncorrectable errors in the decoded data due to the CRC-32 algorithm.