974 resultados para coding
Resumo:
We analyzed the mouse Representative Transcript and Protein Set for molecules involved in brain function. We found full-length cDNAs of many known brain genes and discovered new members of known brain gene families, including Family 3 G-protein coupled receptors, voltage-gated channels, and connexins. We also identified previously unknown candidates for secreted neuroactive molecules. The existence of a large number of unique brain ESTs suggests an additional molecular complexity that remains to be explored. A list of genes containing CAG stretches in the coding region represents a first step in the potential identification of candidates for hereditary neurological disorders.
Resumo:
Recent population studies have demonstrated an association with the red-hair and fair-skin phenotype with variant alleles of the melanocortin-1 receptor (MC1R) which result in amino acid substitutions within the coding region leading to an altered receptor activity. In particular, Arg151Cys, Arg160Trp and Asp294His were the most commonly associated variants seen in the south-east Queensland population with at least one of these alleles found in 93% of those with red hair. In order to study the individual effects of these variants on melanocyte biology and melanocytic pigmentation, we established a series of human melanocyte strains genotyped for the MC1R receptor which included wild-type consensus, variant heterozygotes, compound heterozygotes and homozygotes for Arg151Cys, Arg160Trp, Val60Leu and Val92Met alleles. These strains ranged from darkly pigmented to amelanotic, with all strains of consensus sequence having dark pigmentation. UV sensitivity was found not to be associated with either MC1R genotype or the level of pigmentation with a range of sensitivities seen across all genotypes. Ultrastructural analysis demonstrated that while consensus strains contained stage IV melanosomes in their terminal dendrites, Arg151Cys and Arg160Trp homozygote strains contained only stage II melanosomes. This was despite being able to show expression of tyrosinase and tyrosinase-related protein-1 markers, although at reduced levels and an ability to convert exogenous 3,4-dihydroxyphenyl-alanine (DOPA) to melanin in these strains.
Resumo:
A number of studies indicated that lineages of animals with high rates of mitochondrial (mt) gene rearrangement might have high rates of mt nucleotide substitution. We chose the hemipteroid assemblage and the Insecta to test the idea that rates of mt gene rearrangement and mt nucleotide substitution are correlated. For this purpose, we sequenced the mt genome of a lepidopsocid from the Psocoptera, the only order of hemipteroid insects for which an entire mtDNA sequence is not available. The mt genome of this lepidopsocid is circular, 16,924 bp long, and contains 37 genes and a putative control region; seven tRNA genes and a protein-coding gene in this genome have changed positions relative to the ancestral arrangement of mt genes of insects. We then compared the relative rates of nucleotide substitution among species from each of the four orders of hemipteroid insects and among the 20 insects whose mt genomes have been sequenced entirely. All comparisons among the hernipteroid insects showed that species with higher rates of gene rearrangement also had significantly higher rates of nucleotide substitution statistically than did species with lower rates of gene rearrangement. In comparisons among the 20 insects, where the mt genomes of the two species differed by more than five breakpoints, the more rearranged species always had a significantly higher rate of nucleotide substitution than the less rearranged species. However, in comparisons where the mt genomes of two species differed by five or less breakpoints, the more rearranged species did not always have a significantly higher rate of nucleotide substitution than the less rearranged species. We tested the statistical significance of the correlation between the rates of mt gene rearrangement and mt nucleotide substitution with nine pairs of insects that were phylogenetically independent from one 2 another. We found that the correlation was positive and statistically significant (R-2 = 0.73, P = 0.01; R-s = 0.67, P < 0.05). We propose that increased rates of nucleotide substitution may lead to increased rates of gene rearrangement in the mt genomes of insects.
Resumo:
We have studied the expression of the green fluorescent protein (GFP) gene to gain more understanding of the effects of additional nucleotide triplets (codons) downstream from the initiation codon on the translation of the GFP mRNA in CHO and Cos1 cells. A leader sequence of six consecutive identical codons (GUG, CUC, AGU or UCA) was introduced into a humanized GFP (hm gfp) gene downstream from the AUG to produce four GFP gene variants. Northern blot and RT-PCR analysis indicated that mRNA transcription from the GFP gene was not significantly affected by any of the additional sequences. However, immunoblotting and FACS analysis revealed that AGU and UCA GFP variants produced GFP at a mean level per cell 3.5-fold higher than the other two GFP variants and the hm gfp gene. [35S]-Methionine labeling and immunoprecipitation demonstrate that GFP synthesis was very active in UCA variant transfected-cells, but not in GUG variant and hm gfp transfected-cells. Moreover, proteasome inhibitor MG-132 treatment indicated that the GFPs encoded by each of the GFP variants and the hm gfp were equally stable, and this together with the comparable mRNA levels observed for each construct suggested that the different steady-state GFP concentrations observed reflected different translation efficiencies of the various GFP genes. In addition, the CUC GFP variant, when transiently transfected into CHO or COS-1 cells, did not produce any GFP expressing cells (fully green cells), and the GUG variant produced GFP expressing cells less than 10%, while AGU and UCA GFP variants up to 30–35% in a time course study from 8 to 36 h posttransfection. Analysis of the potential secondary structure of the GFP variant mRNAs especially in the translation initiation region suggested that the secondary structure of the GFP mRNAs was unlikely to explain the different translation efficiencies of the GFP variants. The present findings indicate that a change of the initiation context of the GFP gene by addition of extra coding sequence can alter the translation efficiency of GFP mRNA, providing a means of more efficient expression of GFP in eukaryotic cells.
Resumo:
For dynamic simulations to be credible, verification of the computer code must be an integral part of the modelling process. This two-part paper describes a novel approach to verification through program testing and debugging. In Part 1, a methodology is presented for detecting and isolating coding errors using back-to-back testing. Residuals are generated by comparing the output of two independent implementations, in response to identical inputs. The key feature of the methodology is that a specially modified observer is created using one of the implementations, so as to impose an error-dependent structure on these residuals. Each error can be associated with a fixed and known subspace, permitting errors to be isolated to specific equations in the code. It is shown that the geometric properties extend to multiple errors in either one of the two implementations. Copyright (C) 2003 John Wiley Sons, Ltd.
Resumo:
In Part 1 of this paper a methodology for back-to-back testing of simulation software was described. Residuals with error-dependent geometric properties were generated. A set of potential coding errors was enumerated, along with a corresponding set of feature matrices, which describe the geometric properties imposed on the residuals by each of the errors. In this part of the paper, an algorithm is developed to isolate the coding errors present by analysing the residuals. A set of errors is isolated when the subspace spanned by their combined feature matrices corresponds to that of the residuals. Individual feature matrices are compared to the residuals and classified as 'definite', 'possible' or 'impossible'. The status of 'possible' errors is resolved using a dynamic subset testing algorithm. To demonstrate and validate the testing methodology presented in Part 1 and the isolation algorithm presented in Part 2, a case study is presented using a model for biological wastewater treatment. Both single and simultaneous errors that are deliberately introduced into the simulation code are correctly detected and isolated. Copyright (C) 2003 John Wiley Sons, Ltd.
Resumo:
Esta pesquisa documental analisa as concepções de alfabetização, leitura e escrita subjacentes à Provinha Brasil no período 2008-2012 e o panorama em que esse programa de avaliação é produzido. Parte do referencial bakhtiniano e do conceito de alfabetização de Gontijo (2008, 2013). Ao tomar a Provinha como gênero do discurso, discute os elos precedentes dentro do contexto de produção dessa avaliação, a autoria do Programa e seus principais destinatários. Constata que a Provinha é criada como resposta às demandas de avaliação da alfabetização provenientes de organismos internacionais como o Banco Mundial e a Organização das Nações Unidas para a Educação (Unesco). A avaliação é elaborada pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) como órgão que coordena as avaliações no País, em colaboração com pesquisadores de universidades e de organizações da sociedade civil, para demonstrar confiabilidade científica aliada à participação democrática no processo de produção. Seus principais destinatários são gestores de Secretarias de Educação e professores. Aos primeiros, cabe aderir ao programa de avaliação e tomar medidas administrativas para sua operacionalização nas redes. Os docentes têm o papel central de seguir as orientações do material e reorganizar sua prática em função de melhorias nos desempenhos das crianças no teste. Estas, por sua vez, são desconsideradas como sujeitos de dizeres e é legitimado um discurso homogeneizador sobre seu desenvolvimento. A partir dos testes aplicados e das matrizes de referência e seus eixos, a pesquisa analisa como a diferenciação teórica entre alfabetização e letramento se concretiza na organização das provas. A alfabetização, entendida como apropriação do sistema de escrita, é avaliada no primeiro eixo do teste principalmente como identificação de unidades menores da língua, como letras, sílabas e fonemas. As habilidades de leitura, ligadas ao letramento como concebido nos pressupostos do programa, são aferidas ora como decodificação de palavras e frases descontextualizadas, ora como apreensão de significado predeterminado do texto. A escrita somente é avaliada no ano de 2008 e por meio de itens que solicitavam codificação de palavras e frases ditadas pelo aplicador. Desse modo, a Provinha Brasil contribui para a subtração das potencialidades políticas e transformadoras do aprendizado da língua materna no País.
Resumo:
Este trabalho tem como objeto de estudo os impressos do Projeto Trilhas, material pedagógico produzido em parceria entre o Instituto Natura, a Comunidade Educativa CEDAC e o Ministério da Educação. Trata-se de uma análise documental com as quais se procurou envolver as noções de enunciado, texto, gênero e suporte que possibilitaram fundamentar a proposta metodológica, pautada pelo diálogo, que teve como escopo problematizar como esse conjunto de materiais pode contribuir no processo do ensino e da aprendizagem das crianças matriculadas nas turmas do primeiro ano do Ensino Fundamental, com foco na análise das concepções de alfabetização, leitura e escrita, engendradas nos materiais. Para isso, o referencial teórico que balizou as reflexões se fundamentou nas contribuições da perspectiva bakhtiniana de linguagem e lançou ancoragens no conceito de alfabetização proposto criticamente por Gontijo (2008). As análises se constituíram como uma arena, isto é, um palco de alteridade. Logo, buscaram compreender como o conceito e as concepções se materializaram nas atividades produzidas pelos sujeitos-autores e problematizaram como os impressos do Projeto Trilhas podem contribuir para a melhoria do ensino e da aprendizagem das crianças matriculadas no primeiro ano do Ensino Fundamental. Com as análises, sustenta-se que o conceito que solidifica a constituição dos impressos deste projeto se aproxima das contribuições de Ferreiro e Teberosky (1999), isto é, a alfabetização é o processo pelo qual as crianças assimilam o código escrito e compreende os usos que são dados a ele nas culturas do escrito. A leitura se configurou como decodificação dos signos linguísticos e compreensão de significados, e a escrita como codificação.
Resumo:
Este trabalho aborda o problema do desenho de códigos espácio-temporais para sistemas de comunicação multiple-input multiple-output (MIMO) sem fios. Considera-se o contexto realista e desafiante da recepção não-coerente (a realização do canal é desconhecida no receptor). O detector conhecido como generalized likelihood ratio test (GLRT)é implementado no receptor e, ao contrário da maioria das abordagens actuais, permite-se uma estrutura de correlação arbitrária para o ruído gaussiano de observação. Apresenta-se uma análise teórica para a probabilidade de erro do detector, em ambos os regimes assimptóticos de relação sinal-ruído (SNR) alta e baixa. Essa análise conduz a um critério de optimalidade para desenho de códigos e permite uma re-interpretação geométrica do problema abordado como um problema de empacotamento óptimo num producto Cartesiano de espaço projectivos. A construção dos códigos implica a resolução de um problema de optimização não-linear, não-diferenciável e de dimensão elevada, o qual foi abordado aqui em duas fases. A primeira fase explora uma relaxação convexa do problema original para obter uma estimativa inicial. A segunda fase, refina essa estimativa através de um algoritmo iterativo de descida do gradiente ao longo de geodésicas, explorando-se assim a geometria Riemanniana imposta pelas restricões de potência sobre os códigos espáciotemporais. Mostra-se que o desempenho dos novos códigos obtidos por este método excede o das soluções previamente conhecidas. De facto, para algumas configurações particulares, estas novas constelações atingem o limiar de Rankin e são por isso garantidamente óptimas.
Resumo:
A oferta de serviços baseados em comunicações sem fios tem vindo a crescer exponencialmente na última década. Cada vez mais são exigidas maiores taxas de transmissão assim como uma melhor QoS, sem comprometer a potência de transmissão ou argura de banda disponível. A tecnologia MIMO consegue oferecer um aumento da capacidade destes sistemas sem requerer aumento da largura de banda ou da potência transmitida. O trabalho desenvolvido nesta dissertação consistiu no estudo dos sistemas MIMO, caracterizados pela utilização de múltiplas antenas para transmitir e receber a informação. Com um sistema deste tipo consegue-se obter um ganho de diversidade espacial utilizando códigos espaço-temporais, que exploram simultaneamente o domínio espacial e o domínio do tempo. Nesta dissertação é dado especial ênfase à codificação por blocos no espaço-tempo de Alamouti, a qual será implementada em FPGA, nomeadamente a parte de recepção. Esta implementação é efectuada para uma configuração de antenas 2x1, utilizando vírgula flutuante e para três tipos de modulação: BPSK, QPSK e 16-QAM. Por fim será analisada a relação entre a precisão alcançada na representação numérica dos resultados e os recursos consumidos pela FPGA. Com a arquitectura adoptada conseguem se obter taxas de transferência na ordem dos 29,141 Msimb/s (sem pipelines) a 262,674 Msimb/s (com pipelines), para a modulação BPSK.
Resumo:
A EUCERD Joint Action (EJA) para as Doenças Raras (DR) integrou cinco domínios: planos nacionais e estratégias, nomenclatura internacional para DR, serviços sociais especializados, qualidade dos cuidados/centros de referência e integração de iniciativas em DR. O objetivo deste artigo é descrever o enquadramento português nas DR. Em novembro de 2014 foi realizado um workshop em Portugal com oito países participantes. Foi descrita a situação europeia para as DR e comparada com a realidade portuguesa. Estiveram presentes: autoridades europeias, parceiros da EJA, especialistas, investigadores, profissionais de saúde e associações de doentes. Realizou-se uma análise qualitativa dos conteúdos das apresentações, posteriormente atualizada através de análise documental. No domínio dos planos e estratégias foi aprovada a Estratégia Integrada para as Doenças Raras 2015-2020 que assenta numa cooperação interministerial, intersectorial e interinstitucional. Em relação à nomenclatura, foi discutida e proposta a utilização do Orphanumber. Foram descritas várias iniciativas no âmbito das DR e observados exemplos de boas práticas na área dos serviços socias especializados. Recentemente, Portugal reconheceu oficialmente vários Centros de Referência Nacionais, onde se incluem alguns para as DR. Em conclusão, Portugal tem vindo a desenvolver diversas atividades no domínio das DR sendo necessário continuar com a integração das mesmas.
Resumo:
Hoje em dia, há cada vez mais informação audiovisual e as transmissões ou ficheiros multimédia podem ser partilhadas com facilidade e eficiência. No entanto, a adulteração de conteúdos vídeo, como informação financeira, notícias ou sessões de videoconferência utilizadas num tribunal, pode ter graves consequências devido à importância desse tipo de informação. Surge então, a necessidade de assegurar a autenticidade e a integridade da informação audiovisual. Nesta dissertação é proposto um sistema de autenticação de vídeo H.264/Advanced Video Coding (AVC), denominado Autenticação de Fluxos utilizando Projecções Aleatórias (AFPA), cujos procedimentos de autenticação, são realizados ao nível de cada imagem do vídeo. Este esquema permite um tipo de autenticação mais flexível, pois permite definir um limite máximo de modificações entre duas imagens. Para efectuar autenticação é utilizada uma nova técnica de autenticação de imagens, que combina a utilização de projecções aleatórias com um mecanismo de correcção de erros nos dados. Assim é possível autenticar cada imagem do vídeo, com um conjunto reduzido de bits de paridade da respectiva projecção aleatória. Como a informação de vídeo é tipicamente, transportada por protocolos não fiáveis pode sofrer perdas de pacotes. De forma a reduzir o efeito das perdas de pacotes, na qualidade do vídeo e na taxa de autenticação, é utilizada Unequal Error Protection (UEP). Para validação e comparação dos resultados implementou-se um sistema clássico que autentica fluxos de vídeo de forma típica, ou seja, recorrendo a assinaturas digitais e códigos de hash. Ambos os esquemas foram avaliados, relativamente ao overhead introduzido e da taxa de autenticação. Os resultados mostram que o sistema AFPA, utilizando um vídeo com qualidade elevada, reduz o overhead de autenticação em quatro vezes relativamente ao esquema que utiliza assinaturas digitais e códigos de hash.
Resumo:
INTRODUCTION: The correct identification of the underlying cause of death and its precise assignment to a code from the International Classification of Diseases are important issues to achieve accurate and universally comparable mortality statistics These factors, among other ones, led to the development of computer software programs in order to automatically identify the underlying cause of death. OBJECTIVE: This work was conceived to compare the underlying causes of death processed respectively by the Automated Classification of Medical Entities (ACME) and the "Sistema de Seleção de Causa Básica de Morte" (SCB) programs. MATERIAL AND METHOD: The comparative evaluation of the underlying causes of death processed respectively by ACME and SCB systems was performed using the input data file for the ACME system that included deaths which occurred in the State of S. Paulo from June to December 1993, totalling 129,104 records of the corresponding death certificates. The differences between underlying causes selected by ACME and SCB systems verified in the month of June, when considered as SCB errors, were used to correct and improve SCB processing logic and its decision tables. RESULTS: The processing of the underlying causes of death by the ACME and SCB systems resulted in 3,278 differences, that were analysed and ascribed to lack of answer to dialogue boxes during processing, to deaths due to human immunodeficiency virus [HIV] disease for which there was no specific provision in any of the systems, to coding and/or keying errors and to actual problems. The detailed analysis of these latter disclosed that the majority of the underlying causes of death processed by the SCB system were correct and that different interpretations were given to the mortality coding rules by each system, that some particular problems could not be explained with the available documentation and that a smaller proportion of problems were identified as SCB errors. CONCLUSION: These results, disclosing a very low and insignificant number of actual problems, guarantees the use of the version of the SCB system for the Ninth Revision of the International Classification of Diseases and assures the continuity of the work which is being undertaken for the Tenth Revision version.
Resumo:
A new high throughput and scalable architecture for unified transform coding in H.264/AVC is proposed in this paper. Such flexible structure is capable of computing all the 4x4 and 2x2 transforms for Ultra High Definition Video (UHDV) applications (4320x7680@ 30fps) in real-time and with low hardware cost. These significantly high performance levels were proven with the implementation of several different configurations of the proposed structure using both FPGA and ASIC 90 nm technologies. In addition, such experimental evaluation also demonstrated the high area efficiency of theproposed architecture, which in terms of Data Throughput per Unit of Area (DTUA) is at least 1.5 times more efficient than its more prominent related designs(1).
Resumo:
Abstract - Recently, long noncoding RNAs have emerged as pivotal molecules for the regulation of coding genes' expression. These molecules might result from antisense transcription of functional genes originating natural antisense transcripts (NATs) or from transcriptional active pseudogenes. TBCA interacts with β-tubulin and is involved in the folding and dimerization of new tubulin heterodimers, the building blocks of microtubules. Methodology/Principal findings: We found that the mouse genome contains two structurally distinct Tbca genes located in chromosomes 13 (Tbca13) and 16 (Tbca16). Interestingly, the two Tbca genes albeit ubiquitously expressed, present differential expression during mouse testis maturation. In fact, as testis maturation progresses Tbca13 mRNA levels increase progressively, while Tbca16 mRNA levels decrease. This suggests a regulatory mechanism between the two genes and prompted us to investigate the presence of the two proteins. However, using tandem mass spectrometry we were unable to identify the TBCA16 protein in testis extracts even in those corresponding to the maturation step with the highest levels of Tbca16 transcripts. These puzzling results led us to re-analyze the expression of Tbca16. We then detected that Tbca16 transcription produces sense and natural antisense transcripts. Strikingly, the specific depletion by RNAi of these transcripts leads to an increase of Tbca13 transcript levels in a mouse spermatocyte cell line. Conclusions/Significance: Our results demonstrate that Tbca13 mRNA levels are post-transcriptionally regulated by the sense and natural antisense Tbca16 mRNA levels. We propose that this regulatory mechanism operates during spermatogenesis, a process that involves microtubule rearrangements, the assembly of specific microtubule structures and requires critical TBCA levels.