884 resultados para formulações


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o advento da agricultura ampliou-se a produção alimentar e os bens de consumo, no entanto, os riscos ambientais também foram maximizados em função da adoção de técnicas produtivas baseadas no uso intensivo de insumos agrícolas. Esta problemática é mundial, embora mais evidenciada nos países em desenvolvimento e que tem, na produção agrícola, a base de sua economia. O Brasil enquadra-se nesta situação e desde 2009 é considerado o maior consumidor de agrotóxicos do mundo, criando um cenário de risco ambiental e de saúde humana. Os efeitos ambientais, base deste estudo, estão relacionados não somente à perda de espécies não-alvo, uma vez que os agrotóxicos não são seletivos, mas também as alterações em nível ecossistêmico, a qual se relaciona com as perdas das funções e dos serviços gerados pelos sistemas naturais. Adiciona-se a esta complexidade, a forma de ação de cada agrotóxico, a distribuição dos mesmos nos diferentes compartimentos (ar, solo e água), o período de permanência de cada um, as relações sinérgicas decorrentes das interações entre diferentes produtos, a formação de subprodutos no processo de degradação, entre outros fatores, como as diferenças existentes entre o ingrediente ativo e a formulação comercial, na qual existem os chamados ingredientes inertes em sua composição, os quais podem ser muito mais tóxicos para espécies e ecossistemas. Considerando esta abordagem, a presente pesquisa foi desenvolvida com base na realidade de um local de referência, o município de Bom Repouso (MG/BR), no qual a intensificação da produção de morango e batata tem trazido uma série de riscos sociais e ambientais. Semelhante a outras regiões produtivas do país, o uso de agrotóxicos é recorrente, amplo e irrestrito, com destaque para as formulações comerciais Kraft®36EC e Score®250EC, as quais, juntamente com seus respectivos ingredientes ativos (abamectina e difenoconazol), foram avaliadas por meio de testes de toxicidade com espécies de diferentes níveis tróficos representativas de um ecossistema aquático, gerando informações que foram avaliadas em nível de espécie e de ecossistema, simulando o cenário de aplicação dos produtos no local de referência. Os resultados obtidos permitiram concluir sobre as diferenças de sensibilidade das espécies e quais seriam as mais indicadas para se avaliar os efeitos tóxicos de ambos os agrotóxicos; os efeitos diferenciados entre a formulação comercial e os ingredientes ativos; bem como as respostas em termos de espécies e de ecossistemas, demonstrando a necessidade de que ambas as análises sejam consideradas na avaliação de risco ecológico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De modo a satisfazer aspectos de resistência, custo ou conforto, o aperfeiçoamento do desempenho das estruturas é uma meta sempre almejada na Engenharia. Melhorias têm sido alcançadas dado ao crescente uso de materiais compósitos, pois estes apresentam propriedades físicas diferenciadas capazes de atender as necessidades de projeto. Associado ao emprego de compósitos, o estudo da plasticidade demonstra uma interessante alternativa para aumentar o desempenho estrutural ao conferir uma capacidade resistente adicional ao conjunto. Entretanto, alguns problemas podem ser encontrados na análise elastoplástica de compósitos, além das próprias dificuldades inerentes à incorporação de fibras na matriz, no caso de compósitos reforçados. A forma na qual um compósito reforçado por fibras e suas fases têm sua representação e simulação é de extrema importância para garantir que os resultados obtidos sejam compatíveis com a realidade. À medida que se desenvolvem modelos mais refinados, surgem problemas referentes ao custo computacional, além da necessidade de compatibilização dos graus de liberdade entre os nós das malhas de elementos finitos da matriz e do reforço, muitas vezes exigindo a coincidência das referidas malhas. O presente trabalho utiliza formulações que permitem a representação de compósitos reforçados com fibras sem que haja a necessidade de coincidência entre malhas. Além disso, este permite a simulação do meio e do reforço em regime elastoplástico com o objetivo de melhor estudar o real comportamento. O modelo constitutivo adotado para a plasticidade é o de von Mises 2D associativo com encruamento linear positivo e a solução deste modelo foi obtida através de um processo iterativo. A formulação de elementos finitos posicional é adotada com descrição Lagrangeana Total e apresenta as posições do corpo no espaço como parâmetros nodais. Com o intuito de averiguar a correta implementação das formulações consideradas, exemplos para validação e apresentação das funcionalidades do código computacional desenvolvido foram analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma nova metodologia para elastografia virtual em imagens simuladas de ultrassom utilizando métodos numéricos e métodos de visão computacional. O objetivo é estimar o módulo de elasticidade de diferentes tecidos tendo como entrada duas imagens da mesma seção transversal obtidas em instantes de tempo e pressões aplicadas diferentes. Esta metodologia consiste em calcular um campo de deslocamento das imagens com um método de fluxo óptico e aplicar um método iterativo para estimar os módulos de elasticidade (análise inversa) utilizando métodos numéricos. Para o cálculo dos deslocamentos, duas formulações são utilizadas para fluxo óptico: Lucas-Kanade e Brox. A análise inversa é realizada utilizando duas técnicas numéricas distintas: o Método dos Elementos Finitos (MEF) e o Método dos Elementos de Contorno (MEC), sendo ambos implementados em Unidades de Processamento Gráfico de uso geral, GpGPUs ( \"General Purpose Graphics Units\" ). Considerando uma quantidade qualquer de materiais a serem determinados, para a implementação do Método dos Elementos de Contorno é empregada a técnica de sub-regiões para acoplar as matrizes de diferentes estruturas identificadas na imagem. O processo de otimização utilizado para determinar as constantes elásticas é realizado de forma semi-analítica utilizando cálculo por variáveis complexas. A metodologia é testada em três etapas distintas, com simulações sem ruído, simulações com adição de ruído branco gaussiano e phantoms matemáticos utilizando rastreamento de ruído speckle. Os resultados das simulações apontam o uso do MEF como mais preciso, porém computacionalmente mais caro, enquanto o MEC apresenta erros toleráveis e maior velocidade no tempo de processamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O método dos elementos finitos é o método numérico mais difundido na análise de estruturas. Ao longo das últimas décadas foram formulados inúmeros elementos finitos para análise de cascas e placas. As formulações de elementos finitos lidam bem com o campo de deslocamentos, mas geralmente faltam testes que possam validar os resultados obtidos para o campo das tensões. Este trabalho analisa o elemento finito T6-3i, um elemento finito triangular de seis nós proposto dentro de uma formulação geometricamente exata, em relação aos seus resultados de tensões, comparando-os com as teorias analíticas de placas, resultados de tabelas para o cálculo de momentos em placas retangulares e do ANSYSr, um software comercial para análise estrutural, mostrando que o T6-3i pode apresentar resultados insatisfatórios. Na segunda parte deste trabalho, as potencialidades do T6-3i são expandidas, sendo proposta uma formulação dinâmica para análise não linear de cascas. Utiliza-se um modelo Lagrangiano atualizado e a forma fraca é obtida do Teorema dos Trabalhos Virtuais. São feitas simulações numéricas da deformação de domos finos que apresentam vários snap-throughs e snap-backs, incluindo domos com vincos curvos, mostrando a robustez, simplicidade e versatilidade do elemento na sua formulação e na geração das malhas não estruturadas necessárias para as simulações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Unripe banana flour (UBF) production employs bananas not submitted to maturation process, is an interesting alternative to minimize the fruit loss reduction related to inappropriate handling or fast ripening. The UBF is considered as a functional ingredient improving glycemic and plasma insulin levels in blood, have also shown efficacy on the control of satiety, insulin resistance. The aim of this work was to study the drying process of unripe banana slabs (Musa cavendishii, Nanicão) developing a transient drying model through mathematical modeling with simultaneous moisture and heat transfer. The raw material characterization was performed and afterwards the drying process was conducted at 40 ºC, 50 ºC e 60 ºC, the product temperature was recorded using thermocouples, the air velocity inside the chamber was 4 m·s-1. With the experimental data was possible to validate the diffusion model based on the Fick\'s second law and Fourier. For this purpose, the sorption isotherms were measured and fitted to the GAB model estimating the equilibrium moisture content (Xe), 1.76 [g H2O/100g d.b.] at 60 ºC and 10 % of relative humidity (RH), the thermophysical properties (k, Cp, ?) were also measured to be used in the model. Five cases were contemplated: i) Constant thermophysical properties; ii) Variable properties; iii) Mass (hm), heat transfer (h) coefficient and effective diffusivity (De) estimation 134 W·m-2·K-1, 4.91x10-5 m-2·s-1 and 3.278?10-10 m·s-2 at 60 ºC, respectively; iv) Variable De, it presented a third order polynomial behavior as function of moisture content; v) The shrinkage had an effect on the mathematical model, especially in the 3 first hours of process, the thickness experienced a contraction of about (30.34 ± 1.29) % out of the initial thickness, finding two decreasing drying rate periods (DDR I and DDR II), 3.28x10-10 m·s-2 and 1.77x10-10 m·s-2, respectively. COMSOL Multiphysics simulations were possible to perform through the heat and mass transfer coefficient estimated by the mathematical modeling.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A unidade de coqueamento retardado é um processo térmico de conversão, utilizado pelas refinarias, para converter cargas residuais em produtos de baixo peso molecular e com alto valor agregado (gases, nafta e gasóleo) e coque verde de petróleo. Um pequeno aumento no rendimento líquido da unidade de coqueamento retardado proporciona benefícios económicos consideráveis, especialmente no destilado líquido. A concorrência no mercado, as restrições sobre as especificações do produto e gargalos operacionais exigem um melhor planejamento da produção. Portanto, o desenvolvimento de novas estratégias e modelos matemáticos, focados em melhores condições de operação do processo industrial e formulações de produtos, é essencial para alcançar melhores rendimentos e um acompanhamento mais preciso da qualidade do produto. Este trabalho tem como objetivo o desenvolvimento de modelo matemático do conjunto forno-reator do processo de coqueamento, a partir de informações obtidas em uma planta industrial. O modelo proposto é baseado na caracterização da carga e dos produtos em pseudocomponentes, modelos cinéticos de grupos e condições de equilíbrio liquido-vapor. Além disso, são discutidos os principais desafios para o desenvolver o modelo matemático do forno e do reator, bem como a caracterização rigorosa do resíduo de vácuo e dos produtos para determinar os parâmetros que afetam a morfologia do coque e a zona de reação no interior do reator de coque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram conduzidos dois experimentos com o intuito de se avaliar o desempenho, características de carcaça e parâmetros ruminais de bovinos Nelore recebendo dietas contendo grãos de milho flint processados de diferentes formas em associação a diferentes aditivos e níveis de FDN de silagem de milho (FDNf). No Experimento 1, 239 tourinhos (PCI=350±26,79kg) foram alojados em 40 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento dos grãos de milho (moagem fina e floculação) e diferentes aditivos (monensina sódica; 25 ppm e formulação A062 a base de virginiamicina; produto teste, não comercial, fornecido pela Ourofino Saúde Animal; nas dosagens de 17 e 25 ppm), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação aumentou o peso final, o ganho de peso diário, a eficiência alimentar, o peso da carcaça quente e tendeu a aumentar o rendimento de carcaça em comparação a moagem fina. Houve tendência de interação entre processamento e fornecimento de aditivos para a ingestão de matéria seca e ganho de peso diário. A floculação reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total, aumentou os valores de energia liquida para manutenção e ganho da dieta e o numero médio de papilas ruminais. Os aditivos aumentaram a altura, largura e área das papilas e reduziram a espessura de faixa de queratina em relação ao tratamento controle. Houve tendência das formulações a base de virginiamicina aumentarem o peso da carcaça quente dos animais em comparação com a monensina sódica, mas não em relação ao tratamento controle sem aditivo. A floculação foi mais efetiva para aumentar a digestiblidade do amido no trato total, o valor energético do milho e o desempenho dos bovinos enquanto que os aditivos não foram efetivos para aumentar o valor energético das dietas e a eficiência alimentar dos animais. No Experimento 2, 237 tourinhos (PCI=350±28,49kg) foram alojados em 32 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento (moagem grosseira e floculação) e diferentes níveis de FDNf (4; 7; 10 e 13% MS), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação tendeu a aumentar a eficiência alimentar, o peso da carcaça quente e a espessura de gordura subcutânea, reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total como também aumentou os valores de energia liquida para manutenção e para ganho das dietas. Os níveis de FDNf afetaram ingestão de matéria seca e o peso da carcaça quente independente do método de processamento. Houve tendência de aumento linear no GPD e tendência de redução quadrática na eficiência alimentar com inclusão crescente de FDNf. A inclusão de silagem de milho em dietas com alto teor de milho flint reduziu a eficiência alimentar dos animais, mas aumentou o peso da carcaça quente. A floculação aumentou o valor energético do cereal para tourinhos Nelore em dietas com alto teor de energia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As formulações baseadas na mecânica do contínuo, embora precisas até certo ponto, por vezes não podem ser utilizadas, ou não são conceitualmente corretas para o entendimento de fenômenos em escalas reduzidas. Estas limitações podem aparecer no estudo dos fenômenos tribológicos em escala nanométrica, que passam a necessitar de novos métodos experimentais, teóricos e computacionais que permitam explorar estes fenômenos com a resolução necessária. Simulações atomísticas são capazes de descrever fenômenos em pequena escala, porém, o número necessário de átomos modelados e, portanto, o custo computacional - geralmente torna-se bastante elevado. Por outro lado, os métodos de simulação associados à mecânica do contínuo são mais interessantes em relação ao custo computacional, mas não são precisos na escala atômica. A combinação entre essas duas abordagens pode, então, permitir uma compreensão mais realista dos fenômenos da tribologia. Neste trabalho, discutem-se os conceitos básicos e modelos de atrito em escala atômica e apresentam-se estudos, por meio de simulação numérica, para a análise e compreensão dos mecanismos de atrito e desgaste no contato entre materiais. O problema é abordado em diferentes escalas, e propõe-se uma abordagem conjunta entre a Mecânica do Contínuo e a Dinâmica Molecular. Para tanto, foram executadas simulações numéricas, com complexidade crescente, do contato entre superfícies, partindo-se de um primeiro modelo que simula o efeito de defeitos cristalinos no fenômeno de escorregamento puro, considerando a Dinâmica Molecular. Posteriormente, inseriu-se, nos modelos da mecânica do contínuo, considerações sobre o fenômeno de adesão. A validação dos resultados é feita pela comparação entre as duas abordagens e com a literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present thesis is focused on the development of a thorough mathematical modelling and computational solution framework aimed at the numerical simulation of journal and sliding bearing systems operating under a wide range of lubrication regimes (mixed, elastohydrodynamic and full film lubrication regimes) and working conditions (static, quasi-static and transient conditions). The fluid flow effects have been considered in terms of the Isothermal Generalized Equation of the Mechanics of the Viscous Thin Films (Reynolds equation), along with the massconserving p-Ø Elrod-Adams cavitation model that accordingly ensures the so-called JFO complementary boundary conditions for fluid film rupture. The variation of the lubricant rheological properties due to the viscous-pressure (Barus and Roelands equations), viscous-shear-thinning (Eyring and Carreau-Yasuda equations) and density-pressure (Dowson-Higginson equation) relationships have also been taken into account in the overall modelling. Generic models have been derived for the aforementioned bearing components in order to enable their applications in general multibody dynamic systems (MDS), and by including the effects of angular misalignments, superficial geometric defects (form/waviness deviations, EHL deformations, etc.) and axial motion. The bearing exibility (conformal EHL) has been incorporated by means of FEM model reduction (or condensation) techniques. The macroscopic in fluence of the mixedlubrication phenomena have been included into the modelling by the stochastic Patir and Cheng average ow model and the Greenwood-Williamson/Greenwood-Tripp formulations for rough contacts. Furthermore, a deterministic mixed-lubrication model with inter-asperity cavitation has also been proposed for full-scale simulations in the microscopic (roughness) level. According to the extensive mathematical modelling background established, three significant contributions have been accomplished. Firstly, a general numerical solution for the Reynolds lubrication equation with the mass-conserving p - Ø cavitation model has been developed based on the hybridtype Element-Based Finite Volume Method (EbFVM). This new solution scheme allows solving lubrication problems with complex geometries to be discretized by unstructured grids. The numerical method was validated in agreement with several example cases from the literature, and further used in numerical experiments to explore its exibility in coping with irregular meshes for reducing the number of nodes required in the solution of textured sliding bearings. Secondly, novel robust partitioned techniques, namely: Fixed Point Gauss-Seidel Method (PGMF), Point Gauss-Seidel Method with Aitken Acceleration (PGMA) and Interface Quasi-Newton Method with Inverse Jacobian from Least-Squares approximation (IQN-ILS), commonly adopted for solving uid-structure interaction problems have been introduced in the context of tribological simulations, particularly for the coupled calculation of dynamic conformal EHL contacts. The performance of such partitioned methods was evaluated according to simulations of dynamically loaded connecting-rod big-end bearings of both heavy-duty and high-speed engines. Finally, the proposed deterministic mixed-lubrication modelling was applied to investigate the in fluence of the cylinder liner wear after a 100h dynamometer engine test on the hydrodynamic pressure generation and friction of Twin-Land Oil Control Rings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre no Instituto Superior de Ciências da Saúde Egas Moniz

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de métodos de formulação de misturas betuminosas tem como objetivo determinar a combinação de agregados e betume numa mistura, de tal modo que se obtenha um material de pavimentação tão económico quanto possível, fácil de fabricar e colocar, e que suporte os efeitos das cargas e do clima ao longo do seu ciclo de vida. As misturas colocadas nas camadas de pavimentos podem diferir no tipo de material agregado e na sua granulometria, no tipo e na quantidade de ligante, na utilização de aditivos ou agentes que modificam o betume, e na sua composição volumétrica. Os métodos empíricos de formulação de misturas betuminosas, como o método de Marshall, não permitem formular com a fiabilidade necessária misturas betuminosas com o desempenho mecânico adequado para resistir aos mecanismos de degradação a que vão ficar sujeitas nos pavimentos. Uma das alternativas ao método de Marshall é a metodologia de formulação volumétrica SUPERPAVE, desenvolvida no programa Strategic Highway Research Program(SHRP). Nesta metodologia o procedimento de seleção da percentagem ótima em betume é realizado com base nas propriedades volumétricas de provetes compactados com o compactador giratório. A percentagem ótima em betume depende da energia de compactação utilizada, sendo esta fornecida pelo número de giros a que o provete foi submetido. O equipamento geralmente usado nos ensaios é a prensa giratória de corte (PGC) que permite medir a compacidade e estimar com uma precisão suficiente a porosidade que será obtida insitu. Nestes métodos a seleção da curva granulométrica e da percentagem ótima de betume a usar é feita pela verificação da maior ou menor correspondência entre as composiçõestestadas e certos requisitos de compactabilidade pré-definidos, entendendo-se estes como uma medida da aptidão da mistura para apresentar bom comportamento no seu ciclo de vida. A prática portuguesa é a de utilizar o método de Marshall para formular misturas betuminosas convencionais e até algumas misturas não convencionais. Torna-se, assim, útil comparar os resultados de formulações obtidas por duas vias diferentes, tendo em conta que a utilização da prensa giratória de corte tem vindo a ser progressivamente integrada em várias metodologias de formulação utilizadas internacionalmente. Crê-se que os métodos baseados em PGC, mantêm alguma simplicidade de procedimentos, ao mesmo tempo que permitem amentar o nível de confiança nas composições a que se chega, no que diz respeito ao seu desempenho no seu ciclo de vida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os missionários protestantes presbiterianos que vieram para o Brasil no início da segunda metade do século XIX trouxeram uma interpretação calvinista da bíblia, pois permaneceram fieis à formação princetoniana que efetivou uma síntese entre ortodoxia calvinista e pietismo. Estes pricetonianos tinham como base epistemológica a filosofia de Thomas Reid, conhecida como o Realismo do Senso Comum. Essa filosofia é utilizada como uma epistemologia reformada, ou calvinista. Ela é compreendida em sua formação escocesa e consequentemente americana, via Princeton, como a Epistemologia Providencial. Desta forma, quando ela é assimilada pelos brasileiros por meio da pregação e da formação teológica, a mesma se torna parte do perfil presbiteriano brasileiro como doutrina filosófica. A Filosofia do Senso Comum se gesta como crítica à filosofia empirista de David Hume que, para Reid, convergiria para um possível aniquilamento da religião e para uma visão pessimista da ciência, afetando o empirismo, por conseguinte, causando uma nova formulação mais próxima do ceticismo. Por isso, Reid formulou a filosofia que para ele contrapõe-se a Locke e Berkeley e depois a David Hume, afirmando que a realidade é independente de nossa apreensão. Ou seja, na percepção do mundo exterior não há interferência do sujeito cognoscente sobre o objeto do conhecimento. A nossa relação com os objetos é direta e não deve ser desvirtuada por intermediações. Na implantação do protestantismo no Brasil, via missionários de Princeton, não houve uma defesa intransigente dos princípios calvinistas por parte de missionários como Fletcher e Simonton e sim uma continuidade da leitura das escrituras sagradas pelo viés calvinista, como era feito no Seminário de Princeton. Não havia uma ênfase acentuada na defesa da ortodoxia porque o tema do liberalismo teológico, ou do conflito entre modernismo e fundamentalismo não se fazia necessário na conjuntura local, onde predominava a preocupação pela evangelização em termos práticos. O conceitos da Filosofia do Senso Comum eram próximos do empirismo mitigado de Silvestre Pinheiro e do Ecletismo de Victor Cousin. Por isso, no Brasil, o local em que mais se vê a utilização da filosofia do Senso Comum é nos debates entre intelectuais, em três pontos interessantes: 1ª) O Senso Comum ficou restrito ao espaço acadêmico, na formação de novos pastores, sendo que as obras de Charles Hodge e A. A. Hodge são as principais fontes de implantação desta mentalidade ratificadora da experiência religiosa e, desta forma, delineiam o rosto do protestantismo entre presbiterianos, uma das principais denominações protestantes do final do século XIX; 2ª) Nos debates entre clérigos católicos e protestantes em polêmicas teológicas;. 3º) No aproveitamento utilitarista da assimilação cultural estrangeira pelos protestantes nacionais, não por último, facilitada pela simpatia dos liberais brasileiros pelo protestantismo, ao mesmo tempo que mantinham uma linha filosófica mais próxima do empirismo mitigado e do ecletismo. Assim, nossa hipótese pretende demonstrar que os protestantes trouxeram em seu bojo as formulações epistemológicas que foram passadas para um grupo de intelectuais, que formaram o quadro dos primeiros pastores presbiterianos da história desta denominação. Eles foram convertidos e assimilaram melhor as novas doutrinas por meio de mais do que simples pregações, mas pela sua forma filosófica de encarar os objetos estudados, e que tais informações vêm por meio da base epistemológica do Realismo do Senso Comum, que encontra espaço nos ideais republicanos brasileiros do século XIX.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A imagem de Javé em Juízes 5 constitui-se nas primeiras impressões que o Israel antigo teve do seu Deus. Ela desenha a saída de Javé de sua antiga morada no Sinai para adentrar na terra da Palestina, a fim de lutar por seu povo contra a opressão cananéia. O período tribal foi o momento formativo desse antigo conceito de Javé no Antigo Testamento. Grupos israelitas reformularam o conceito de Javé promulgado pela tradição do Sinai, afirmando, assim, que Javé não é mais o Deus estático e teofânico, morador de uma montanha, mas é o Deus de Israel . E a migração da divindade de um monte para um campo de batalha não representa meramente a caminhada dessa divindade, mas representa o caminhar dos vários estágios em que Israel conceituou seu Deus. Decisivo nessas novas articulações teológicas foi o campo de batalha, que foi o moto da celebração à Javé ressalvada em Juízes 5. Javé é celebrado por seu agir histórico! A história é a mediadora entre Javé e seu povo. Ela é a via pela qual se pronuncia sobre Javé. Assim, as novas conjunturas históricas requerem novas formulações sobre Deus. A antiga memória bélica de Javé contida em Juízes 5 perpassa a história da religião de Israel, podendo ser observada também em Habacuque 3,3-6. Esse é um texto do século VII a.C. Assim, detectamos uma memória corrente na história da religião de Israel, que começou nos momentos antecedentes à da formação da monarquia (Juízes 5) e ainda pode ser notada em Habacuque, no século VII a.C. Nesse desenrolar da religião de Israel, a memória bélica sobre Javé esteve sujeita a várias mutações. Mas, essencialmente, manteve sua proposta: tornar os sujeitos da opressão promulgada pelos impérios em agentes de transformação social. O conceito bélico de Javé patrocinou as revoltas contra o despotismo social, sendo, portanto, uma forma de resistência dos grupos desprestigiados da sociedade, em Israel e Judá

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Êxodo 23,1-9 se insere no universo jurídico do antigo Israel não como lei a maneira das formulações em estilo casuístico e apodítico, mas como instrução ética. A estrutura, sintaxe e estilo desse texto revelam que não estamos diante de leis, mas de parênese. Sendo assim, a pergunta pelo seu lugar vivencial, data e conteúdos é significativa. Também o é a pergunta pelos processos sociais que viabilizaram os conflitos indicados indiretamente entre homens livres proprietários de terra e fora do estado de empobrecimento e homens livres donos de terra, mas a caminho de perdê-la por conta das dívidas in natura adquiridas. Para verificarmos a plausibilidade sociológica de Êxodo 23,1-9, verificamos, através da história social, que tipo de sociedade era Israel no tempo do tribalismo e depois na monarquia, e as consequências sociais que cada um desses sistemas promoveu na sociedade israelita. Com isso, pretendemos conhecer o pano de fundo histórico-sociológico que tece o nosso texto.(AU)