25 resultados para modelagem matemática da erosão do solo

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os impactos sobre o meio ambiente, associados ao desenvolvimento de atividades pelo homem em uma bacia hidrográfica, estão fortemente inter-relacionados e têm, a cada dia, se tornado mais evidentes. Esta idéia motiva a concepção de uma gestão integrada dos recursos naturais em várias partes do mundo, inclusive em países em desenvolvimento como o Brasil. Modelos matemáticos de qualidade de água podem ser ferramentas úteis para a tomada de decisão no apoio à gestão de bacias hidrográficas. O planejamento e gestão dos recursos hídricos em um país de grande porte como o Brasil envolve, geralmente, bacias extensas, com um vasto conjunto de elementos naturais e antrópicos. Um modelo de qualidade de água deve permitir a representação da variabilidade espacial da região e, desta forma, a consideração de fontes difusas juntamente com fontes pontuais de poluição. O presente estudo analisou o impacto do desenvolvimento sobre a qualidade da água em uma bacia de grande extensão (bacia do rio Taquari-Antas, RS, com 26.500 km2), considerando a alternativa de aproveitamento hidrelétrico definida no inventário da bacia. Utilizou-se um modelo distribuído de simulação hidrológica e de qualidade de água aplicável principalmente a grandes bacias ( > 1.000 km2), o IPH-MGBq. Este modelo, desenvolvido no IPH, foi ajustado aos dados diários observados de vazão, no seu módulo de quantidade, e de concentração de OD, DBO, nitrogênio e fósforo totais e coliformes fecais, obtidos de coletas trimestrais, no módulo de qualidade. O modelo permite a análise temporal das condições hidrológicas e de qualidade da água de toda a bacia, discretizada por células, com trechos de rios e reservatórios. O modelo apresentou bom desempenho quanto à quantidade (vazões) e quanto aos perfis de concentração dos parâmetros de qualidade de água ao longo do Taquari- Antas, principalmente em termos de valores médios. Foi realizada uma análise de incertezas de alguns parâmetros e variáveis de entrada do modelo com relação à inerente incerteza existente na definição destes elementos. Esta metodologia demonstrou ser uma alternativa adequada à aplicação de modelos distribuídos de qualidade de água em bacias sem dados, sendo que os erros cometidos pelo modelo, em relação aos valores de concentração observados, foram aceitáveis para uma confiança de 95%. A simulação de alguns cenários de desenvolvimento na bacia do Taquari-Antas evidenciou a importância da avaliação conjunta de todos os elementos da bacia (fontes pontuais e difusas de poluição e da implantação de reservatórios) sobre a qualidade de suas águas. O IPH-MGBq mostrou ser uma ferramenta útil para a simulação de cenários de desenvolvimento em grandes bacias como base para a tomada de decisão na gestão dos recursos hídricos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O planejamento dos recursos hídricos é uma tarefa complexa pois trata diretamente dos interesses de diversos setores da sociedade e gera freqüentemente conflitos pelo uso. Em se tratando de bacias hidrográficas esta relação de interesses se mostra bastante latente pois verifica-se toda a sorte de atividades humanas que se distribuem no espaço, ao mesmo tempo em que se observa o declínio dos recursos ambientais. Assim sendo torna-se evidente a necessidade de se compreender as inter-relações entre as forças que estimulam o processo produtivo na bacia hidrográfica. A tarefa exige um estudo mais amplo da bacia, no qual se considere as relações entre as diversas ações empreendidas pelo homem nesta unidade do espaço geográfico. Neste sentido a alteração do uso do solo se apresenta como um indicador das principais forças que promovem o desenvolvimento de uma região. Compreender como se dá este processo e capturar o padrão de evolução destas atividades no espaço da bacia significa, dentro do contexto dos recursos hídricos, possibilitar um melhor planejamento e gerenciamento das águas, tanto no aspecto qualitativo quanto quantitativo. Esta dissertação discute uma metodologia para simular o padrão de alteração de classes de uso do solo em uma bacia hidrográfica de médio porte. Para isso foram utilizadas técnicas de geoprocessamento, sensoriamento remoto e modelagem matemática. Foram considerados agentes motivadores da alteração do uso do solo a declividade do terreno e as distâncias das rodovias, dos centros urbanos e dos cursos d’água. Os resultados obtidos mostraram que a bacia de estudo avança no sentido de uma ação de degradação cada vez mais intensa em algumas regiões, caracterizada pela ocupação de áreas nativas e pela provável remoção da mata ciliar ao longo dos cursos d’água. Observou-se também que existe uma inércia maior com relação às alterações justamente nas regiões mais afastadas do centro urbano e das rodovias federais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A modelagem matemática é uma ferramenta que apresenta diversas vantagens no estudo de processos industriais como, por exemplo, entender e desenvolver tecnologias, avaliar o impacto de variáveis nas propriedades do produto, estudos de redução de custos de produção e de impacto ambiental. O objetivo deste trabalho é desenvolver e validar um modelo matemático para um reator de bancada de polimerização em lama de eteno, enfatizando o desenvolvimento do modelo cinético. O modelo do reator contemplou: 1) modelo de troca térmica; 2) modelo termodinâmico; 3) modelo de transferência de massa gás-líquido e 4)modelo cinético. Para uma melhor predição do modelo foi realizada a estimação de alguns dos seus parâmetros conforme uma metodologia que compreendeu a análise de sensibilidade paramétrica e das variáveis de entrada do modelo e os efeitos de um planejamento de experimentos para a geração dos dados experimentais. A metodologia utilizada mostrou-se eficiente na avaliação do modelo quanto as suas características de predição, ajudando na identificação de possíveis falhas e evidenciando as vantagens de uma adequada metodologia experimental. Uma etapa determinante para o processo de estimação dos parâmetros é a escolha dos dados de saída a utilizar para a estimativa de determinado parâmetro. A modelagem do reator experimental mostrou-se satisfatória em todos os aspectos do processo (troca térmica, cinética, termodinâmica e transferência de massa), pois o modelo prediz com precisão as características encontradas nos experimentos. Assim, este pode ser utilizado para avaliar o mecanismo reacional envolvido de forma a aproximar-se das reais características do processo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

É certo afirmar que muitas das organizações têm buscado aperfeiçoar seus processos, melhorar seu desempenho, ampliar seus mercados e principalmente medir seus resultados. O mercado postal, que teve como berço o setor estatal, diante das inúmeras transformações tecnológicas e o processo de globalização, tem conduzido as empresas que exploram o setor a se debaterem na busca de aperfeiçoamento das avaliações de seus desempenhos. As empresas postais do mundo inteiro têm procurado métodos capazes de dar sustentação às suas práticas para garantia e ampliação de seus mercados. A Empresa Brasileira de Correios e Telégrafos – ECT, criada em 1969, configurada com muitas lojas similares em todo o Brasil, que prestam e comercializam um conjunto de produtos e serviços semelhantes, mas que utilizam recursos diversos em intensidade diferente, possui sua atual avaliação de desempenho das lojas centrada em um único fator econômico financeiro, denominado índice de receitas e despesas – R/D. Esse índice não considera fatores que estão sendo utilizados pelas lojas, fora da visão financeira. Nesse ponto, considerada a importância e relevância do tema, é que surge a proposta de avaliar um conjunto de lojas da ECT do Rio Grande do Sul, através de modelagem matemática, utilizando uma técnica denominada data envelopment analysis – DEA (em português, análise envoltória de dados), que possibilita a inclusão de outras variáveis fora da visão econômica. Este trabalho tem como objetivos: (1) definir que variáveis podem ser utilizadas para a avaliação das lojas; (2) definir um conjunto de lojas similares, que executam as mesmas funções e que se diferenciam somente na intensidade da utilização dos recursos; (3) gerar, através da técnica, os resultados que podem ser obtidos a partir dos fatores quantitativos definidos e realizar análise de sensibilidades e (4) propiciar aos administradores um referencial para apoio à decisão. Espera-se que através da utilização da técnica seja possível: (1) identificar fatores que sejam usados de forma distinta nas lojas; (2) identificar que práticas estão sendo utilizadas pelas lojas consideradas eficientes e que podem contribuir para as lojas não eficientes e (3) permitir a participação dos gestores locais na alteração e extensão do modelo levando em conta as características das lojas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No mundo todo busca-se a melhoria da qualidade das universidades através de avaliações periódicas. Também no Brasil tem sido realizado um grande esforço para a avaliação de universidades, especialmente as públicas. A departamentalização, vigente desde 1968, teve como conseqüência a separação entre o sistema administrativo e o acadêmico, com diferentes instâncias decisórias, diminuindo a integração e a flexibilidade da universidade. Essa situação vai de encontro ao que a sociedade atual está demandando: uma universidade dinâmica, que acompanhe as tendências tecnológicas, com alto nível de qualidade. Nesse contexto é que surge o interesse pela avaliação de departamentos de uma universidade, para verificar se estes, funcionando de uma maneira distinta, apresentam desempenhos similares. Mais especificamente, procura-se, neste trabalho: (1) definir, qualitativamente, os fatores relevantes para uma avaliação quantitativa multicriterial de departamentos acadêmicos de uma universidade; (2) efetuar comparação objetiva, via modelagem matemática, do desempenho dos departamentos; (3) diferenciar departamentos quanto à sua eficiência relativa; e (4) identificar os fatores que fazem departamentos serem mais (ou menos) eficientes. Focaliza-se a Universidade Federal do Rio Grande do Sul (UFRGS), de grande relevância no cenário nacional, com cursos de elevada qualidade, embora nem todos com o mesmo nível de excelência. O estudo emprega uma modelagem matemática, utilizando a técnica denominada Análise Envoltória de Dados (DEA, do inglês “Data Envelopment Analysis”). A aplicação da técnica aos departamentos da UFRGS oferece um mapeamento por eficiência relativa que, em vez de meramente criar uma escala ordinal (ranking), mostra o quanto um departamento é menos eficiente do que outro, em uma escala relacional, indicando, ainda, quais são os fatores que determinam eficiências distintas para os departamentos. Os resultados do estudo permitem: (1) destacar alguns pontos de ineficiência, que podem ser melhorados; (2) identificar características de departamentos mais eficientes, que possam ser repassadas aos menos eficientes, para que estes elevem seu desempenho; e (3) contribuir para a homogeneização da eficiência de todos os departamentos acadêmicos da UFRGS, com o intuito de aperfeiçoar a universidade como um todo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho aborda o desenvolvimento de um algoritmo de controle para servoposicionadores pneumáticos. Esses dispositivos são limpos, baratos e apresentam boa relação entre seu peso e a potência que são capazes de fornecer, o que os torna vantajosos para muitas aplicações. Seu emprego em tarefas de precisão é comprometido, no entanto, pelo seu comportamento fortemente não-linear. Visando compreender os fenômenos envolvidos, e realizar testes dos controladores propostos através de simulações, é realizado um estudo da modelagem matemática desses sistemas. Buscando situar este trabalho no campo de pesquisa proposto, é apresentada uma introdução aos critérios de estabilidade utilizados no âmbito dos sistemas não-lineares, com atenção especial ao Teorema da Estabilidade Assintótica de Lyapunov. Também são discutidas as técnicas de controle não-linear utilizadas neste trabalho. O controlador não-linear proposto é sintetizado com base na estratégia de controle em cascata. Essa técnica consiste na interpretação do servoposicionador como dois subsistemas interconectados: um subsistema mecânico e outro pneumático. O modelo do subsistema mecânico é utilizado para determinar o valor de pressão necessário para que o sistema siga a trajetória desejada. Com essa informação, é calculada a entrada de controle adequada para o subsistema pneumático, de forma que esta última forneça a pressão desejada ao subsistema mecânico. A fim de assegurar robustez ao sistema controlado frente à presença de incertezas paramétricas e de forças externas e/ou de atrito, utiliza-se uma técnica de controle a estrutura variável no subsistema pneumático. A lei originalmente proposta para o subsistema pneumático é, então, modificada, com os objetivos de eliminar a necessidade de monitorar o sinal de aceleração do sistema e de reduzir o grau de solicitação dos componentes eletromecânicos do servoposicionador. As propriedades de estabilidade e robustez do sistema em malha fechada são provadas analiticamente para cada uma das duas leis de controle propostas. As demonstrações são obtidas por meio da teoria de estabilidade de Lyapunov. Essas propriedades são corroboradas por meio de simulação do sistema controlado, com e sem a presença dos efeitos não-lineares do atrito e das incertezas paramétricas. Além de ratificar as características analiticamente previstas para o servoposicionador em malha fechada, os resultados das simulações também são utilizados para comparar os méritos das diferentes leis de controle propostas para o seguimento no subsistema pneumático.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nanocápsulas (NC), nanoesferas (NS) e nanoemulsão (NE) são propostas na literatura como carreadores submicrométricos de fármacos. Os objetivos deste trabalho são realizar um estudo comparativo para diferenciar o comportamento cinético desses sistemas e avaliar a influência da espessura da parede polimérica das NC no perfil de liberação de um modelo lipofílico de fármaco a partir de diversas formulações preparadas com diferentes concentrações de poli(-caprolactona) (PCL). Com esse propósito, o éster etílico de indometacina (IndOEt) foi associado a cada sistema e a sua hidrólise alcalina foi realizada para simular uma condição sink. As suspensões aquosas foram tratadas com solução aquosa de NaOH e a modelagem matemática dos perfis de consumo do IndOEt foi realizada. Uma vez que os derivados éster de indometacina têm sido relatados como inibidores seletivos da ciclooxigenase-2, também constitui objetivo deste trabalho avaliar a atividade antiedematogênica em ratos do IndOEt associado aos nanocarreadores através da inibição do edema em pata de rato induzido por carragenina. O IndOEt apresentou consumo total em 24 horas para NC, 12 horas para NS e 8 horas para NE. A modelagem matemática demonstrou que os perfis cinéticos apresentaram uma fase de liberação rápida, com tempo de meia-vida de 5,9, 4,4 e 2,7 minutos, e uma fase de liberação sustentada com tempos de meia-vida de 288,8, 87,7 e 147,5 minutos, respectivamente. Comparando-se os resultados, as NC apresentaram os maiores tempos de meia-vida para o modelo lipofílico de fármaco associado aos nanocarreadores Para todas as formulações preparadas com diferentes concentrações de PCL, a modelagem matemática dos perfis demonstrou que quanto menor a concentração de polímero empregada, mais rápido é o consumo do éster. Para todos os sistemas estudados, um ajuste satisfatório dos dados experimentais ao modelo da Lei das Potências foi obtido. A incorporação do IndOEt em NC e NS apresentou atividade antiedematogênica após a administração oral das formulações. Por outro lado, a associação do IndOEt na NE não inibiu o edema induzido pela carragenina.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento realizado para a implantação do novo sistema de despoeiramento dos Fornos Elétricos a Arco da Aciaria da Gerdau Riograndense. O desenvolvimento do novo sistema iniciou com a necessidade de substituir o antigo sistema de captação, pois este não estava obtendo o desempenho esperado. Os principais resultados obtidos com a implantação deste projeto foram o atendimento das especificações do projeto, comprovado pelos resultados obtidos nas medições de material particulado (MP), uma vez que as concentrações de material particulado medido estão abaixo do limite de emissão estabelecido pelo órgão de controle ambiental, e os resultados do estudo de dispersão, realizados para avaliar a qualidade do ar, utilizando modelagem matemática, atenderam aos limites legais de emissão estabelecidos pelo Conselho Nacional de Meio Ambiente - CONAMA. O estudo de dispersão foi elaborado após a implantação do sistema de despoeiramento, considerando os dados de entrada obtidos nas medições realizadas na saída dos gases da nova casa de filtros. As causas para o sucesso do projeto estão associadas a sólidos conhecimentos das tecnologias disponíveis da equipe responsável pela implantação do investimento, a visitas realizadas em outras empresas siderúrgicas, ao modelamento hidráulico que estabeleceu o dimensionamento correto do sistema e as experiências adquiridas na operação do antigo sistema de despoeiramento, pois orientaram as decisões tomadas no decorrer do projeto. A garantia da continuidade do desempenho do sistema implantado está assegurada por sua inclusão no programa de gestão ambiental da empresa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Micropartículas nanorrevestidas foram preparadas através da secagem por aspersão empregando-se suspensões de nanocápsulas poliméricas como material de revestimento. Uma matriz 2³ foi empregada, e os fatores analisados foram o método de preparação de nanocápsulas (nanoprecipitação e emulsificação-difusão), o polímero [poli(ε-caprolactona) e Eudragit® RS100] e a forma de inclusão da indometacina nas micropartículas (nanocápsulas ou núcleo). Duas formulações adicionais foram preparadas associando a indometacina ao dióxido de silício em etapa única, empregando nanocápsulas obtidas através do método de nanoprecipitação com a poli(ε-caprolactona) e com o Eudragit® RS100. As suspensões de nanocápsulas foram caracterizadas através da medida do pH, do tamanho médio de partícula, do potencial zeta e da eficiência de encapsulação. As micropartículas nanorrevestidas foram caracterizadas quanto ao tamanho de partícula, a taxa de associação, ao rendimento, a área superficial e ao volume de poros. A análise morfológica foi realizada através da microscopia eletrônica de varredura e da microscopia óptica. Também foram determinados o tamanho médio de partícula e o potencial zeta dos pós ressuspendidos. Os perfis de dissolução foram avaliados em tampão fosfato pH 6,8 através da eficiência de dissolução, dos fatores de similaridade e de diferença, da modelagem matemática e do modelo da Lei da Potência. O conjunto dos resultados permitiu selecionar as formulações preparadas com Eudragit® RS100 como sendo as mais promissoras, porque apresentaram maior controle da liberação do fármaco. Em relação à técnica de preparação das nanocápsulas foi selecionada a nanoprecipitação, pois possibilitou a redução de tensoativos, o que torna o processo de secagem mais eficiente. Além disso, a estratégia de associação do fármaco em uma etapa demonstrou perfis de liberação mais controlados para as micropartículas nanorrevestidas. A modelagem matemática empregando a Lei da Potência permitiu a proposição de um modelo de dissolução, a desaglomeração do sistema nanorrevestido microparticulado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tendo em vista o controle da porosidade da matriz polimérica de micropartículas constituídas por blendas de poli(hidroxibutirato-co-hidroxivalerato) [P(HBHV)] e de poli- ε-caprolactona (PCL), o presente trabalho objetivou verificar a possibilidade de controle da liberação de fármacos associados a esses sistemas. Foram preparadas micropartículas constituídas de blendas de P(HBHV):PCL nas proporções de 100:0, 90:10 e 80:20 (m/m) pelo método de emulsificação/evaporação de solvente, variandose o volume de fase orgânica. Os modelos de fármacos utilizados foram a dexametasona e o acetato de dexametasona. As micropartículas obtidas apresentaram rendimento e eficiência de encapsulação satisfatória, entretanto, através de análises por microscopia óptica e microscopia eletrônica de varredura foi evidenciada a ocorrência de cristais de fármaco não encapsulado. Os diâmetros de partícula permaneceram em torno de 100 a 200 μm e variaram em função do volume de fase orgânica. A área superficial foi afetada pelo percentual de PCL na blenda e pela presença de cristais do fármaco nas formulações. A análise térmica das amostras demonstrou que o processo de obtenção alterou a estrutura cristalina do P(HBHV) e que a encapsulação dos fármacos levou à variação da sua temperatura de transição vítrea e cristalinidade. Os perfis de dissolução da dexametasona a partir das micropartículas apresentaram ajustes adequados ao modelo monoexponencial e foram semelhantes aos perfis apresentados pelo fármaco não encapsulado. Nas formulações contendo acetato de dexametasona houve liberação sustentada do fármaco por até 250 horas quando associado aos sistemas e a modelagem matemática indicou ajuste dos perfis ao modelo biexponencial. Evidenciou-se um aumento nos valores das constantes de liberação dos fármacos conforme o acréscimo do conteúdo de PCL na blenda.