103 resultados para Conceito de tempo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A doença de Marek (MD), causada por um alfaherpesvírus, é uma enfermidade linfoproliferativa que acomete principalmente galinhas. Como não existe tratamento, a melhor forma de prevenção e controle da MD é através do uso de vacinas atenuadas, que vêm sendo usadas desde 1970. Este trabalho descreve a análise de vacinas vivas congeladas contra o sorotipo 3 do vírus da doença de Marek (herpesvírus de peru – HVT) por PCR em tempo real (qPCR) e por cultivo em células de embrião de galinha. Foram avaliadas três vacinas (cepa FC126) provenientes de distintos fabricantes. As análises da homogeneidade inter e intra-lote apresentaram, respectivamente, média ± desvio padrão de 2,6 ± 1,7%, 2,1 ± 1,1% e 1,2 ± 0,1% e média ± desvio padrão de 1,5 ± 0,1%, 1,2 ± 0,8% e 1,0 ± 0,3% para A, B e C, respectivamente. A qPCR subestimou os títulos das vacinas concentradas 4x e superestimou os títulos das vacinas diluídas 8x, enquanto o cultivo celular superestimou os títulos das vacinas concentradas. As vacinas apresentaram quantidades diferentes de células/dose e unidade formadoras de placa/dose. Conseqüentemente, a relação PFU/célula também foi diferente, o que demonstra a necessidade de construção de curvas diferentes, para cada fabricante, para a titulação por qPCR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O processamento de imagens tem sido amplamente utilizado para duas tarefas. Uma delas é o realce de imagens para a posterior visualização e a outra tarefa é a extração de informações para análise de imagens. Este trabalho apresenta um estudo sobre duas teorias multi-escalas chamadas de espaço de escala e transformada wavelet, que são utilizadas para a extração de informações de imagens. Um dos aspectos do espaço de escalas que tem sido amplamente discutido por diversos autores é a sua base (originalmente a gaussiana). Tem se buscado saber se a base gaussiana é a melhor, ou para quais casos ela é a melhor. Além disto, os autores têm procurado desenvolver novas bases, com características diferentes das pertencentes à gaussiana. De posse destas novas bases, pode-se compará-las com a base gaussiana e verificar onde cada base apresenta melhor desempenho. Neste trabalho, foi usada (i) a teoria do espaço de escalas, (ii) a teoria da transformada wavelet e (iii) as relações entre elas, a fim de gerar um método para criar novas bases para o espaço de escalas a partir de funções wavelets. O espaço de escala é um caso particular da transformada wavelet quando se usam as derivadas da gaussiana para gerar os operadores do espaço de escala. É com base nesta característica que se propôs o novo método apresentado. Além disto, o método proposto usa a resposta em freqüência das funções analisadas. As funções bases do espaço de escala possuem resposta em freqüência do tipo passa baixas. As funções wavelets, por sua vez, possuem resposta do tipo passa faixas Para obter as funções bases a partir das wavelets faz-se a integração numérica destas funções até que sua resposta em freqüência seja do tipo passa baixas. Algumas das funções wavelets estudadas não possuem definição para o caso bi-dimensional, por isso foram estudadas três formas de gerar funções bi-dimensionais a partir de funções unidimensionais. Com o uso deste método foi possível gerar dez novas bases para o espaço de escala. Algumas dessas novas bases apresentaram comportamento semelhante ao apresentado pela base gaussiana, outras não. Para as funções que não apresentaram o comportamento esperado, quando usadas com as definições originais dos operadores do espaço de escala, foram propostas novas definições para tais operadores (detectores de borda e bolha). Também foram geradas duas aplicações com o espaço de escala, sendo elas um algoritmo para a segmentação de cavidades cardíacas e um algoritmo para segmentação e contagem de células sanguíneas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tese apresenta um estudo sobre o tema da formação continuada de professores. Inspirado principalmente na arqueologia e na genealogia de Michel Foucault, utilizo o conceito alforria —enfatizando o duplo movimento articulado que esse conceito encerra, enquanto uma liberdade que é dada, de romper grilhões e de arremeter o alforriado à situação de permanecer girando em órbita, sob controle— como uma ferramenta para questionar, pensar e problematizar a emergência da formação continuada de professores no Brasil. O estudo desenvolve-se, basicamente, em três grandes movimentos. O primeiro, compreende uma leitura mais ou menos sistemática da obra de Foucault, que me permitiu propor e desenvolver uma investigação inspirada no pensamento pós-estruturalista. Essa inspiração reflete-se, principalmente, na abordagem genealógica do tema, na escolha das ferramentas teóricas e no modo peculiar de analisar os discursos. O segundo movimento compreende uma caracterização genérica da “passagem” da sociedade de disciplinas para a sociedade de normalização. Descrevo algumas transformações ocorridas nos modos de perceber, significar e usar o espaço e o tempo e, também nas relações de poder. Faço essa descrição relacionando essas transformações com a Escola inserida na Modernidade. Com essa caracterização, em que a alforria desenha-se em cada um desses conjuntos de transformações, teço uma espécie de pano de fundo sobre o qual é possível tomar a formação continuada enquanto um imperativo, enquanto uma ordem para que haja uma continuidade, em consonância com as transformações espaciotemporais e políticas. Estabelecendo uma ponte com o próximo movimento apresento alguns aspectos das sociedades de soberania, de disciplinas e de normalização, ressaltando os interstícios em que emerge a formação de professores e em que se inicia a formação das condições políticas que tornaram possível a formação continuada de professores. E, no terceiro movimento, problematizo especialmente a emergência da formação continuada de professores no Brasil. Em primeiro lugar, abordo a emergência da formação de professores, na França do século XVII/XVIII e sua chegada ao Brasil, no século XIX. Em segundo lugar, a partir de enunciados garimpados na Revista Brasileira de Estudos Pedagógicos (RBEP), editada pelo Instituto Nacional de Estudos Pedagógicos (INEP), do Ministério da Educação e Cultura (MEC), descrevo algumas problematizações espaciotemporais da educação escolar e da formação de professores, que se desenvolveram na primeira metade do século XX, pelo funcionamento de alguns discursos constitutivos da política educacional brasileira. Ao descrever esses enunciados, implicados na crise moderna da Escola e envolvidos em relações de poder, eu argumento que eles contribuíram para compor as condições políticas para a emergência da formação continuada no Brasil. E, por último, questiono essa emergência na virada da Modernidade para a Contemporaneidade, apresentando e discutindo alguns dos seus aspectos. Em suma: este trabalho apresenta a Tese de que a emergência da formação continuada de professores no Brasil produziu-se no interstício que se formou na virada do modo de vida moderno para o modo de vida contemporâneo, na ordem da biopolítica e nos moldes da alforria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Passiflora é um gênero neotropical que apresenta uma grande variabilidade floral e foliar, o que dificulta enormemente sua classificação taxonômica. A característica mais marcante do gênero é a corona de filamentos em suas flores. Para melhor entender a taxonomia de Passiflora, foram analisadas sete regiões de seu DNA, englobando os genomas plastidial, mitocondrial e nuclear de 104 espécies. Essas espécies incluem 19 dos 23 subgêneros da classificação morfológica antiga e todos os quatro subgêneros da classificação mais recente, também baseada em caracteres externos. Os resultados corroboraram a proposta mais recente, que divide o gênero em quatro subgêneros (Astrophea, Decaloba, Deidamioides e Passiflora), com a adição de mais um, Tryphostemmatoides. Os três subgêneros com o número de espécies mais representativo (Astrophea, Decaloba e Passiflora) formam grupos monofiléticos estatisticamente bem fundamentados. No entanto, Deidamioides não é monofilético em todas as análises e marcadores, enquanto que Tryphostemmatoides é representado por apenas uma espécie. Foram também estudadas as prováveis datas de surgimento de Passiflora e sua diversificação nos três principais subgêneros, através do estudo de quatro regiões do DNA, englobando também os três genomas, em 70 espécies. Verificou-se que o gênero Passiflora deve ter aparecido há cerca de 42 milhões de anos atrás (Ma); Decaloba parece ter sido o primeiro subgênero a se estabelecer (35 Ma), enquanto que os subgêneros Astrophea e Passiflora devem ter se diversificado há 24 Ma Estes dois subgêneros parecem ter tido uma radiação rápida em comparação a Decaloba, que possui árvores filogenéticas com comprimentos dos ramos significativamente maiores que os outros dois. As adaptações morfológicas a diferentes polinizadores devem ter sido as principais responsáveis pela radiação rápida. A herança organelar de dois subgêneros, Decaloba e Passiflora, foi investigada através de um e quatro híbridos interespecíficos, respectivamente. A herança foi estritamente materna para a mitocôndria e o cloroplasto em Decaloba, enquanto que no subgênero Passiflora ocorreu herança materna para o DNA mitocondrial e paterna para o DNA plastidial. Esses resultados reforçam os dados obtidos pela filogenia, no que se refere à diferenciação e diversificação dos subgêneros, pois há evidências de que a herança materna dos cloroplastos seja ancestral em plantas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Embora há muito tempo já se tenha conhecimento da importância da recuperação de informações temporais, não existe um SGBD temporal que tenha sido desenvolvido unicamente para aplicações comerciais, que supra todas as necessidades e abranja todos os aspectos temporais necessários a estas aplicações. O SGBD da Oracle, a partir da versão 8i, possibilita a inserção de características temporais similares às de tempo de transação no BD, através de um pacote de tempo denominado Time Series Cartridge. Entretanto, em muitos casos, a utilização deste cartucho de tempo não é suficiente para que se possa implementar por completo tudo o que foi especificado na modelagem do sistema. A modelagem completa da realidade só é alcançada se forem utilizadas em conjunto as características de tempo de transação e de tempo de validade no banco de dados. Neste trabalho são sugeridos e implementados mecanismos para a inserção e o gerenciamento do tempo de validade no SGBD Oracle. O tempo de validade é administrado através da execução de funções, procedimentos, gatilhos e objetos, organizados em forma de um pacote, de maneira que este possa ser utilizado em conjunto com o Time Series Cartridge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A relação com a teoria das cordas renovou o interesse nas teorias quânticas de campo formuladas num espaço-tempo não-comutativo. O principal aspecto dessas teorias é o assim chamado "mecanismo UV/IR", segundo o qual divergências ultravioletas são parcialmente convertidas em infravermelhas. Para certos modelos, estas singularidades infravermelhas originadas do mecanismo UV/IR podem inviabilizar a solução perturbativa da teoria de campos. A questão principal, portanto, é encontrar teorias que sejam consistentes quando formuladas num espaço-tempo não-comutativo, sendo os modelos supersimétricos particularmente promissores neste sentido. Neste trabalho, examinamos as teorias de calibre supersimétricas Abelianas (NCSQED) e não-Abelianas com grupo de calibre U(N) (NCSYM) formuladas num espaço-tempo não-comutativo de quatro dimensões. Emambos os casos, calculamos as funções de vértice utilizando o formalismo covariante de supercampos que é tornado completamente operacional. Consideramos tanto as teorias N = 1 quanto as com supersimetria estendida. Mostramos rigorosamente que, a um laço da teoria de perturbações, estes modelos são livres de singularidades infravermelhas UV/IR não-integráveis. Para a função de dois pontos da NCSQED esta afirmação vale em qualquer calibre, ao passo que, para a função de três pontos, as singularidades infravermelhas UV/IR perigosas se anulam num calibre particular. Já para a NCSYM, demonstramos que as correções quânticas às funções de vértice de dois e três pontos não apresentam os efeitos indesejáveis do mecanismo UV/IR graças a certas relações envolvendo traços dos geradores do grupo de calibre que, surpreendentemente, são satisfeitas apenas na representação fundamental do grupoU (N). Como esperado, a função de dois pontos é também finita na teoria N = 4.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O pó de aciaria elétrica (PAE) é um resíduo sólido gerado na coleta do material particulado no processo de fabricação do aço em forno elétrico a arco. A classificação segundo norma NBR 10004 para o mesmo é classe I – Perigoso, porque apresenta metais pesados (chumbo e cádmio) em sua constituição, que lixiviam em água excedendo os limites máximos estabelecidos por esta norma. Os elementos ferro e zinco são os constituintes majoritários presentes no PAE. O conhecimento da forma como estes elementos estão combinados é de suma importância antes do estudo de novas tecnologias para processamento do resíduo. Este trabalho teve como objetivos principais caracterizar química, física, estrutural e morfologicamente o PAE e avaliar a influência do tempo na redução carbotérmica deste resíduo. Na etapa de caracterização do PAE as seguintes técnicas foram utilizadas: análise granulométrica, análise química, microscopia eletrônica de varredura (MEV), análise por dispersão de energia (EDS), análise digitalizada de mapeamento de raios-x, difração de raios-x (DRX) e espectroscopia Mössbauer. Os experimentos de redução foram realizados em forno mufla na temperatura de 1050°C, em três tempos de redução: 15, 30 e 60 minutos. O agente redutor utilizado foi um carvão gaúcho, proveniente da mina de Faxinal, beneficiado e contendo 17% de cinza. A quantidade de carbono utilizada nos experimentos foi de 50% em excesso em relação a quantidade estequiométrica. O grau de metalização do ferro das amostras reduzidas foi avaliado via técnicas de análise química via-úmida e espectroscopia Mössbauer. O grau de remoção do zinco nas amostras reduzidas foi avaliado via técnica de análise química por Espectrometria de Emissão Atômica por Plasma – ICP. Através da etapa de caracterização verificou-se que o ferro e o zinco são os elementos majoritários presentes no PAE, e estão combinados na forma dos seguintes óxidos: Fe3O4, ZnFe2O4, FeCr2O4, Ca0,15Fe2,85O4 e ZnO. Nos ensaios de redução verificou-se que inicialmente ocorre a redução dos óxidos de ferro. O máximo grau de metalização obtido no tempo de 60 minutos foi em torno de 50%. A análise estatística mostrou que objetivando maximizar a variável de resposta (grau de metalização) e garantir economia o tempo de 15 minutos se mostrou o mais adequado. Para as fases com zinco, verificou-se que após a decomposição da ZnFe2O4 e tempos maiores de redução teve início a redução da ZnO. Com 60 minutos na temperatura de 1050°C o grau de remoção do zinco foi de 95%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Doença de Marek é uma enfermidade linfoproliferativa das aves, causada por um alfaherpesvírus e caracterizada pela infiltração de células em nervos periféricos, gônadas, íris, vísceras, músculos e pele. Desde 1970, vacinas atenuadas têm sido utilizadas como ferramenta principal no controle da doença. Esse trabalho descreve a implantação da Reação em Cadeia da Polimerase em Tempo Real (qPCR) para a titulação de vacinas contra o vírus da doença de Marek do sorotipo 3, herpesvírus dos perus (HVT). A qPCR foi comparada com a técnica tradicional de titulação, baseada no cultivo celular de fibroblastos de embrião de galinha. Foram avaliadas três vacinas vivas (congeladas, cepa FC126) provenientes de distintos fabricantes. A técnica molecular apresentou alta correlação entre os valores de threshold cycle (CT) e respectivas diluições das vacinas (R2 = 0,99), indicando que, dentro desta faixa linear testada (102 a 104 PFU/dose), a qPCR foi capaz de quantificar as vacinas disponíveis no mercado. A reprodutibilidade da titulação em cultivo celular e qPCR foi avaliada pela realização dos testes em três dias distintos a partir de ampolas de um mesmo lote da vacina. Os títulos obtidos por ambos os métodos demonstraram alta reprodutibilidade e coerência com o fornecido pelo fabricante. Caracterizou-se também a proporção de vírus livres e associados às células, onde foi observado que, pelo menos, 90% dos vírus encontravamse na forma associada. Este trabalho indicou que a qPCR é reprodutível, rápida e menos trabalhosa do que a titulação em cultivo celular tradicionalmente utilizada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente pesquisa aborda os movimentos desencadeados na instituição escolar com a chegada dos ambientes informatizados nas escolas da rede municipal de Porto Alegre, tendo como interface de investigação as categorias de tempo e de espaço. Problematizo a relação escolarizaçãotecnologia no contexto de um cenário social que emerge na hegemonia tecnológica digital das redes de informação e comunicação, para que se tornem evidentes as configurações de tempo e de espaço forjadas no palco de uma proposta de organização da escola pública municipal que, ao reorganizar tempo e espaço escolares, marca a saída do modelo da escola seriada e a entrada da escola por ciclos de formação e autoriza uma forma de escolarização que coloca de forma oficial a materialidade e os saberes da informática educativa na rede de ensino municipal de Porto Alegre. Sob a lógica de uma perspectiva de investigação histórica e cultural, desnaturaliza-se a inserção da informática no tempo e no espaço ao considerá-la como não-imune aos efeitos do contemporâneo fenômeno de compressão do tempo e do espaço. Percorrendo as diferentes experiências espaço-temporais e as configurações assumidas pela sociedade ocidental, ganham visibilidade formas de escolarização que, num processo histórico, conquistaram legitimidade e produziram a escola pública, gratuita, obrigatória, tecnológica e ajustada às transformações e exigências de um cenário social regido por uma imensa acumulação de espetáculos. Continuidades e descontinuidades marcam a inserção das tecnologias de informação e de comunicação na maquinaria escolar, e o disciplinamento cognitivo e comportamental conquista novos dispositivos. Em um corpus de análise em que se entrelaçam documentos, entrevistas, observações e o complexo e ambivalente fenômeno implementado pela permanente revolução das redes digitais de comunicação e de informação, é que a inserção do saber e da materialidade da Informática na Educação no tempo e no espaço escolares passa a ser tematizada. Como um jogo de cara e coroa que, ao revelar sua face de veneno, tornando mais eficiente o controle individual e coletivo, faz, também, girar a moeda, para que o potencial participativo, socializante e emancipador da rede mundial de computadores aponte para a face do próprio remédio. A partir dessa faceta condicionante e nãodeterminista da relação escolarização-tecnologia, tempos e espaços para colonizar são problematizados a fim de fazer emergir, na mesma intensidade, tempos e espaços para fruir, para deixar espraiar a sensibilidade e a interação humanas, para potencializar o aprendizado e a aquisição dos saberes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fatores genéticos e ambientais são apontados como fatores causais para explicar as diferenças no desenvolvimento de problemas de saúde entre grupos étnicos. O conceito de raça/etnia é definido, assim como as indicações de seu uso. Diabetes melito (DM) como um estado de doença com uma marcada variabilidade étnico-racial é utilizado como exemplo de análise. Através de estudo transversal avaliou-se a prevalência das complicações vasculares em uma amostra de pacientes com DM tipo 2. Um total de 864 pacientes, incluindo 656 brancos, 104 mulatos e 104 pretos, classificados por auto-definição, foram avaliados através de protocolo padrão para doença arterial coronariana (DAC), doença vascular periférica (DVP), acidente vascular cerebral (AVC), retinopatia diabética (RD), nefropatia diabética (ND) e neuropatia diabética sensório-motora distal (NSMD). Pacientes brancos e mulatos eram mais velhos que os pacientes pretos (61,0 ± 9,3 vs. 60,1 ± 10,3 vs. 56,0 ± 10,3 anos; P <0,001), embora o tempo de duração do DM fosse semelhante entre os grupos (14,8 ± 8,2 vs. 14,2 ± 6,7 vs. 13,3 ± 7,0 anos; P = 0,169). Parâmetros antropométricos (índice de massa corporal e medida da cintura), prevalência de síndrome metabólica, hipertensão arterial sistêmica, níveis de hemoglobina glicada, também foram similares entre os grupos. Em relação às complicações crônicas do DM, brancos, mulatos e pretos apresentaram-se com uma prevalência similar de DVP, AVC e NSMD. Mulatos e pretos, quando comparados com brancos, apresentaram uma maior prevalência de DAC (45,4% vs. 60,4% vs. 39,2% ; P=0,004). As prevalências de microalbuminúria (22,4%, 21,2 e 22,1%; P= 0,906) e macroalbuminuria (16,2%, 19,2% and 13,5%; P= 0,915) foram similares entre os grupos. Doença renal avançada (diálise) (9% vs. 8,7% vs. 18,3%; P=0,012) e RDP (21,5% vs. 15,4% vs. 34,6%; P=0,005) foram mais freqüentes em pretos. Estas diferenças se mantiveram após ajustes para possíveis fatores de confusão. Concluindo, em pacientes com DM tipo 2 com o mesmo tipo de assistência médica, controle pressórico e metabólico, foi observada uma prevalência maior de DAC, RDP e doença renal avançada em pacientes pretos. Os mecanismos pelos quais estas diferenças ocorrem não são claros e componentes genéticos e/ou ambientais devem ser melhor explorados. Entretanto, até que este melhor entendimento seja disponível, uma abordagem mais agressiva na avaliação e manejo dos fatores de risco para as complicações do DM nos indivíduos pretos deve ser pensada.