999 resultados para partículas elementares


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A infecção pelo vírus da dengue é um problema de saúde pública global que põe em risco cerca de 2,5 bilhões de pessoas no mundo, com uma incidência de 50-100 milhões de casos resultando em cerca de 24.000 mortes por ano. Os mecanismos envolvidos na resposta imune inata atuam imediatamente após o contato do hospedeiro com os antígenos virais, levando à secreção de interferon do tipo I (IFN-I), a principal citocina envolvida na resposta antiviral. Entender como o sistema IFN-I é inibido em células infectadas pelo vírus dengue pode fornecer valiosas informações sobre a patogênese da doença. Propomos neste estudo analisar a inibição da via de sinalização do IFN-I por diferentes cepas isoladas no estado de Pernambuco, assim como o desenvolvimento de um vírus recombinante da dengue expressando a proteína Gaussia luciferase, para estudos futuros de replicação e imunopatogênese. A fim de estudar a via de sinalização do IFN-I, foram selecionadas cepas dos quatro sorotipos de dengue para crescimento, concentração e titulação viral. Foi utilizada a linhagem celular BHK-21-ISRE-Luc-Hygro que expressa o gene firefly luciferase fusionado a um promotor induzido pelo IFN-I (ISRE - Interferon Stimulated Response Element). Observamos que todos os sorotipos em estudo foram capazes de inibir, em diferentes proporções, a resposta ou sinalização do IFN-I. Com o intuito de auxiliar as pesquisas em dengue, desenvolvemos um vírus repórter de dengue expressando o gene repórter da Gaussia luciferase. Células transfectadas com o transcrito in vitro de um dos clones resultou em imunofluorescência positiva, porém não houve recuperação de partículas infectivas. Outros clones deverão ser testados para recuperação de vírus recombinante repórter. Juntos, os dados da caracterização das cepas em estudo e a recuperação de partículas infectivas da construção realizada neste trabalho deverão contribuir para as pesquisas em imunopatogênese, replicação viral e desenvolvimento de antivirais contra o dengue

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foi construído um equipamento que possibilitou a determinação dos parâmetros de fluidização de amostras de granulometrias simples e de misturas binárias, de carvão de Charqueadas com granulonetrias entre 9 e 28 malhas (mesh number), à temperatura ambiente, tendo-se obtido uma correlação para o cálculo da velocidade mínima de fluidização em função do diâmetro das partículas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram investigados os efeitos de tratamentos térmicos nas propriedades estruturais, magnéticas e de magnetotransporte eletrônico de fitas de Co10Cu90 rapidamente resfriadas (“melt-spun”) enfatizando o estudo de possíveis relações entre as interações magnéticas entre grãos, camadas e cristais presentes nestes materiais e a magnetoresistência. A análise combinada da evolução estrutural e da intensidade das interações entre os grãos magnéticos mostra claramente o papel de alguns parâmetros estruturais (tamanho e densidade de partículas, distância entre partículas) e da própria intensidade das interações entre as partículas nas propriedades de transporte eletrônico em presença de um campo magnético.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho se insere dentro dos estudos relativos à durabilidade ou integridade fisica da Arquitetura. mais particularmente à durabilidade da aparência das fachadas dos edificios. Estuda a interação que se estabelece entre as partículas de contaminação atmosférica combinadas com o vento e a chuva (condições ambientais), e a morfologia das fà.chadas (geometria e materiais) nas mudanças visuais ou manchamentos que degradam suas aparências. Após sistematização do conhecimento geral sobre os mecanismos e fatores envolvidos na formação desse tipo de manifestação patológica. utiliza um estudo baseado em casos reais para análise das correlações entre as variáveis envolvidas no processo, em nível de condições ambientais locais e caracteristicas da morfologia das fachadas. Os dois edificios escolhidos como estudo de caso estão dentro do centro da cidade de Porto Alegre, mais precisamente em área designada por Centro Histórico, tendo sido construídos na primeira metade do século. O Centro Histórico foi escolhido como área para a seleção dos exemplares analisados por possuir um alto potencial de acumulação de poluentes, exagerando o fenômeno estudado. Os exemplares analisados, apesar da mesma idade, chegaram aos dias de hoje em condições díspares quanto à manutenção da sua aparência. possibilitando a confinnação da influência da sua materialização no seu desempenho frente às condições de exposição aos agentes ambientais envolvidos no processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta os resultados de um estudo sistemático sobre as influências do tamanho de grão de filmes finos de Al e da implantação de íons de He sobre a evolução térmica de distribuições de átomos de Cu e formação de precipitados de Al-Cu. Filmes finos de Al depositados sobre substrato de SiO2/Si através de dois processos diferentes foram implantados com íons de Cu+ e He+ produzindo uma solução sólida supersaturada de Al-Cu (≈ 2,5 a 3,5 at. %) e nano-bolhas de He. Os valores de energia dos íons foram escolhidos de tal forma a produzirem uma camada rica em Cu e He na região a aproximadamente 100nm da superfície. Tais filmes foram tratados termicamente em alto-vácuo nas temperaturas de 200ºC e 280ºC por tempos de 0,5h e 2h. Os filmes foram analisados por Retroespalhamento Rutherford, para determinação do perfil de concentração dos átomos de Cu, e por Microscopia Eletrônica de Transmissão, para determinação da microestrutura do Al e dos sistemas de nano-partículas Al-Cu e Al-He. Os resultados experimentais mostraram que a evolução térmica da distribuição dos átomos de Cu e a formação de precipitados de Al-Cu são significativamente afetadas pela configuração e tamanho de grão do filme de Al e pelas implantações de He. O presente estudo mostrou que existe uma forte correlação entre o fluxo de vacâncias e a estabilidade da microestrutura de filmes finos de Al (Al/SiO2/Si) implantados com íons de Cu+ e He+ e tratados termicamente. A possibilidade de controlar os fluxos de vacâncias através de configurações da microestrutura dos filmes de Al é, portanto, um tema de grande interesse tecnológico relacionado a durabilidade das interconexões metálicas de dispositivos microeletrônicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fatoração de números inteiros é um assunto que, embora muito antigo, desperta cada vez mais interesse. Existem vários métodos de criptografia de chave pública, baseados não só em fatoração de inteiros, mas também em resolução de logarítmos discretos, por exemplo, cuja segurança depende da ineficiência dos métodos de fatoração conhecidos. Este trabalho tem como objetivo descrever os principais métodos de fatoração utillizados hoje em dia. Primeiramente, três métodos elementares serão estudados: o método de Fermat e os métodos Rho e p - 1 de Pollard. A seguir, os dois mais poderosos métodos de fatoração para inteiros sem forma especial: o método de curvas elípticas, e o método de peneira quadrática, os quais tomam como base os métodos p - 1 e de Fermat, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O conhecimento dos fungos anemófilos em determinada cidade ou região é importante para o diagnóstico etiológico e o tratamento específico das manifestações alérgicas respiratórias. Várias técnicas quantitativas e qualitativas são preconizadas para coleta e identificação desses fungos na dependência do local estudado. Nesta pesquisa, sobre esporos de fungos do ar, foi utilizado o equipamento Rotorod Sampler®, que retira a amostra do ar através de um bastão de plástico preso a um motor elétrico que o faz girar rapidamente, sendo as partículas suspensas no ar recolhidas pelo bastão. As amostras foram coletadas uma vez por semana, durante 24 horas, correspondendo a um ciclo de coleta. Foram realizadas 52 coletas entre abril de 2000 e março de 2001. Os resultados mostraram prevalência de ascosporos (50,49%), Cladosporium (17,86%), Aspergillus/Penicillium (15,03%), basidiosporos (3,84%), rusts (3,82%), Helminthosporium (2,49%), Botrytis (1,22%), Alternaria (1,19%), smuts (0,90%), Curvularia (0,87%), Nigrospora (0,61%) e Fusarium (0,08%). Não foi possível identificar 1,59% dos esporos de fungos coletados no período. O maior número de esporos foi observado nos meses de verão e o menor, durante o outono. Utilizando provas in vivo e in vitro, avaliou-se a hipersensibilidade a fungos entre 39 pacientes atópicos sofrendo de rinite e ou asma brônquica. Os testes cutâneos identificaram sensibilização em 17,94% dos pacientes, enquanto as provas sorológicas caracterizaram presença de IgE específica em 12,82% dos casos avaliados. A detecção de significativo número de esporos de fungos no ar de Porto Alegre, com muitas espécies comprovadamente alergênicas, e os índices de sensibilização observados em indivíduos atópicos confirmam a importância do estudo dos fungos anemófilos nessa cidade, com vistas a aprimorar o diagnóstico e o manejo de pacientes com manifestações alérgicas respiratórias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumo não disponível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo foi realizado com o objetivo de conhecer e analisar como o Núcleo de Tecnologia Educacional de Terra Nova do Norte está capacitando os professores da rede pública de ensino em Informática da Educação; como essa capacitação é construída nos Laboratórios de Informática nas escolas; e como os professores estão fazendo uso do computador como ferramenta pedagógica. Pretendemos determinar quais são as dificuldades encontradas nesse tipo de capacitação, estabelecendo quais as reais perspectivas dos educadores e dos alunos do ensino fundamental; à luz dos resultados, elaboraremos um conjunto de sugestões com o intuito de melhorar o nível de qualidade de atuação dos envolvidos com tecnologia da informação e da comunicação. Além disso visitamos os núcleos de: Cuiabá, Cáceres, Diamantino, Nova Xavantina, Sinop e Terra Nova do Norte; os Laboratórios de Informática nos municípios de: Terra Nova do Norte, Colider, Itaúba, Claudia, Marcelândia, Feliz Natal e Sinop. Também visitamos os professores de sala de aula que atuam no Ensino Fundamental nessas escolas. Com dificuldades financeiras, sem meios de transporte próprio, com falta de pessoal técnico e especializado e com acumulo de funções e, conseqüentemente, sobrecarga de atividades, o Núcleo de Tecnologia Educacional de Terra Nova do Norte, através de seus especialistas, vem realizando um trabalho exaustivo, mas sem perspectiva: os cursos de capacitação relâmpagos não preparam os professores nem para funções elementares, muitos menos para funções complexas Para esses cursos, deve-se conceber uma carga horária mínima de 100 (Cem) horas/aula, resguardando a relação indissociável entre teoria e prática. A capacitação dos professores multiplicadores, que ainda acontece em nível básico, é a grande dificuldade que os especialistas do núcleo estão encontrando nesse processo, pois não há como dar uma boa capacitação em informática educacional se a maioria dos professores nunca sentaram em frente a um computador. Há necessidade de se rever com muito carinho esse processo de informatização das escolas públicas, tanto na dimensão epistemológica quanto na profissionalização. Há um grande compromisso e força de vontade do pessoal das escolas e dos núcleos, o que nos leva a afirmar que, se não fosse pela tenacidade desses professores o programa já estaria em fase terminal. O programa, portanto, necessita de mais apoio e de investimento em suas potencialidades técnica e pedagógica, pois do modo como está, pouco contribui para a democratização e a melhoria do ensino.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As discrepâncias nos resultados de análises de materiais informados tanto pelo produtor quanto pelo consumidor são um problema comum na maioria das indústrias. Os contratos comerciais na indústria mineral normalmente penalizam o produtor quando uma determinada caraterística do minério exceder os limites estabelecidos. As diferenças nos resultados de análise são devidas a muitas formas de erro. Contratos rígidos impõem ao minerador o emprego de um rigoroso programa de controle de qualidade e nestas situações a amostragem possui um papel fundamental. Esta tese tem por objetivo propor um novo protocolo de amostragem e preparação de amostras que garanta a representatividade desejada pelas partes, produtor e consumidor. O estudo inicia fazendo-se uma abordagem qualitativa da amostragem, sendo enfocados os conceitos de representatividade e amostragem probabilística. É feita uma apresentação dos tipos de erros existentes em um protocolo amostral e são apresentados exemplos de problemas que ocorrem devido à falta de cuidado no dimensionamento e operação de amostradores e durante o processo de preparação da amostra. A seguir, é efetuada uma abordagem quantitativa da amostragem onde é apresentado o equacionamento matemático da teoria da amostragem de Gy. Tendo em vista as diferenças de resultados que usualmente ocorrem entre laboratórios é introduzida uma metodolo gia para a verificação da equidade destas determinações através do estudo de alguns casos. A definição do novo protocolo de amostragem foi baseada na teoria da amostragem de Gy. Para tanto, foi realizado o estudo de quatro casos com a finalidade de confirmar os princípios mais importantes da teoria da amostragem Nos ensaios foram realizadas a medição do erro total da amostragem em pilha e a verificação da existência de significância estatística deste erro em relação à disposição do carvão no depósito, foi realizada a verificação da significância do erro total na amostragem mecânica probabilística, a verificação das etapas mais críticas do processo de preparação de amostras, a determinação do erro de integração dos vários tipos de carvões testados e foi verificada a aplicabilidade da análise variográfica para a determinação do erro de integração. Os resultados encontrados mostraram a validade dos conceitos empregados pela teoria da amostragem e indicaram a impropriedade das normas brasileiras de amostragem e preparação de carvão, NBR 8291 e 8292, para garantir a representatividade da caracterização de um determinado lote de carvão. É proposto um novo protocolo de amostragem de carvão mineral, o qual leva em consideração a variabilidade das partículas componentes do lote e as formas de amostragem e preparação da amostra. Conclui-se que é possível dimensionar um sistema de controle de qualidade do carvão que seja capaz de estimar a precisão desejada e que garanta a representatividade do resultado acordada entre as partes. Por fim, é sugerida a modificação das normas brasileiras existentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A observação de uma nova classe de eventos no espalhamento profundamente inelástico (D18) elétron-próton tem gerado grande interesse teórico e experimental. Estes eventos apresentam grandes intervalos na variável pseudo-rapidez ("7)sem deteção de partículas e são interpretados como oriundos de processos com caráter difrativo. A difração é descrita segundo uma base teórica fundamentada na Teoria de Regge, a qual já era utilizada na descrição das interações difrativas nas colisões hadrônicas. A Cromodinâmica Quântica (QCD) descreve com boa concordância todas as características usuais do D18, entretanto, frente a esses fenômenos novos elementos estão sendo incorporados na teoria. A questão principal é investigar se os processos difrativos são dominados pela troca da trajetória de Regge dominante, o Pomeron, ou por interações perturbativas descritas pela QCD. OS dados existentes não permitem distingüir qual a dominância e possivelmente há uma mistura de efeitos perturbativos QCD e não-perturbativos (Regge). Neste trabalho contrapomos o modelo de Regge e o Modelo Partônico para a difração. O observável físico utilizado nas análises é a função de estrutura difrativa Ff(xjp, {3,Q2). Apontamos as características e predições do Modelo Partônico para este observável. Encontramos que o modelo descreve os dados, entretanto há problemas em regiões específicas do espectro das variáveis cinemáticas. Recentes medidas da função de estrutura apresentam uma quebra de sua fatorização. No sentido de explicar esta nova característica introduzimos uma troca extra de reggeon, de caráter não-perturbativo, como uma extensão do Modelo Partônico. Os resultados mostram que a troca de reggeon é importante para {3< 0.4 e descreve bem a quebra de fatorização. Há melhoria na dependência para pequeno {3,entretanto a troca de reggeon é pouco sensível à variação do momento transferido Q2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese buscou averiguar quais foram os efeitos, os impactos e modificações que ocorreram na dinâmica de funcionamento de fóruns do orçamento participativo, quando a este processo decisório de grupo em larga escala e com repercussões imediatas nas próprias comunidades decisoras se agregou um apoio computacional de pequena sofisticação, com o perfil de um sistema de apoio à decisão para grupos. Estas intervenções, talhadas sob a perspectiva quaseexperimental, levaram ao ambiente real de decisão um apoio derivado de modelos baseados em critérios e atributos para a hierarquização de demandas por obras de perfil público-social. A metodologia empregada, um esboço multimétodo com técnicas distintas de atuação por grupo trabalhado, incluindo nestas distinções o papel do pesquisador, foi levada a cabo em três regiões distintas do orçamento participativo. O pesquisador, enquanto ser observante, valeu-se de um diário de campo que ao lado dos tradicionais questionários usados em quaseexperimentos, funcionou como um coletor de dados, os quais foram suplementados com igual valia por entrevistas semi-estruturadas com os atores do processo. Técnicas elementares de estatística aliadas à interpretação dos dados qualitativos a partir de codificações sugeridas por técnicas de análise de conteúdo, forjaram um grande painel de dados, que permitiu apurar os impactos da adoção da tecnologia, bem como enquadrar os efeitos nas posturas dos grupos e dos atores participantes do processo. Como idéia conclusiva, o estudo permitiu estatuir que várias das situações em apoio à decisão em grupo ocorreram, alguns outros resultados foram inesperados e quiçá contraditórios em relação à história de pesquisa do tema apoio à decisão em grupo por computador e outros se revelaram promissores para futuras pesquisas. Por fim, argüi-se a necessidade de averiguar, em ambientes como o estudado, a relação real existente entre as conotações política e racional de tomada de decisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho estuda o reaproveitamento do efluente alcalino do branqueamento da polpa, da indústria de celulose, através de processos de separação com membranas. Para tanto, foram realizados testes com o efluente industrial para diferentes membranas e, simultaneamente, foi pesquisada a aplicação do processo de flotação como pré-tratamento para retirada de fibras do efluente. A avaliação dos resultados foi realizada por meio de determinações analíticas e monitoramento de alguns parâmetros. Os experimentos foram executados em equipamentos de bancada e piloto. A etapa de separação com membranas envolveu os processos de ultrafiltração, nanofiltração, osmose reversa e combinações destas operações. De forma a escolher um processo com retenção e fluxo permeado adequados variou-se durante os testes a pressão através das membranas e a temperatura. As análises realizadas para a caracterização do efluente foram: pH, condutividade elétrica, turbidez, sólidos totais (ST), demanda química de oxigênio (DQO), compostos organo-halogenados (AOX), ferro, magnésio, cálcio, sódio, potássio e manganês. A DQO foi o principal critério utilizado para avaliar a qualidade do permeado. Os ensaios de flotação foram realizados com e sem adição de compostos químicos auxiliares. A eficiência do processo foi avaliada através das análises de ST, condutividade elétrica, pH, recuperação de fibras, teor de alumínio, turbidez e visualmente Os resultados indicaram que todos os processos testados trouxeram uma melhoria nas características do efluente, incluindo reduções de até 90% no valor de DQO em alguns casos. O processo que apresentou a melhor performance foi a combinação UF5+ORP. A investigação preliminar sobre a flotação das fibras mostrou que, apesar de ter atingido uma remoção de fibras de 95% ainda havia a presença de partículas grosseiras, as quais poderiam causar danos aos processos com membranas. Mais estudos devem ser realizados no sentido de otimizar o processo de flotação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisa com métodos cienciométricos a relação entre algumas características de uma amostra de periódicos de Física e os valores de Fator de Impacto (FI) publicados no Journal Citation Reports (JCR), no período de 1993 a 2000. As características estudadas são: sub-área do conhecimento, evolução temporal, tipo e tamanho do periódico, densidade dos artigos e ritmo de obsolescência da literatura. A amostra foi constituída de modo não aleatório, abrangendo todos os títulos classificados pelo Journal Citation Reports (JCR) como sendo de algumas sub-áreas da Física: Física; Física Aplicada; Física Atômica, Molecular e Química; Física da Matéria Condensada; Física de Fluídos e de Plasmas; Física Matemática; Física Nuclear; Física de Partículas e Campos; Ótica; e, Astronomia e Astrofísica. Ao total analisou-se 376 periódicos. Foi elaborado um banco de dados no programa Statistics Packet for Social Science (SPSS) versão 8.0 para a coleta das informações necessárias para a realização do estudo, bem como para o tratamento estatístico das mesmas. As hipóteses de trabalho foram testadas através da Análise de Variância (ANOVA), do Teste χ2 e da Dupla Análise de Variância por Posto de Friedman. As análises empreendidas resultaram na comprovação das seis hipóteses de trabalho à medida que foi verificado que as variáveis: tipo, tamanho, densidade, ritmo de obsolescência, sub-área e tempo influenciam, umas em maior grau, outras com menor intensidade, os valores de FI. Especificamente, destaca-se que o tamanho e o ritmo de obsolescência são as características dos periódicos que se correlacionam mais fortemente com o FI. A densidade apresentou o menor poder explicativo das diferenças existentes entre o impacto das publicações. O aspecto mais relevante verificado está na existência de associação entre sub-área e FI. As cinco sub-áreas que se distinguem das demais são: a Óptica e a Física Aplicada por apresentarem valores médios baixos de FI; e a Física de Partículas e Campos, a Física Atômica, Molecular e Química e a Física Nuclear devido às médias altas. O estudo conclui que o FI deve ser utilizado somente de modo contextualizado e relativizado.