1000 resultados para Modelagem matemática.


Relevância:

60.00% 60.00%

Publicador:

Resumo:

O teor de água de equilíbrio dos grãos de feijão foi determinado pelo método dinâmico-gravimétrico para temperaturas entre 25 e 55 °C e atividades de água para cada temperatura, entre 0,20 e 0,75. Observou-se que o teor de água decresce com o aumento da temperatura para uma dada atividade de água à semelhança dos produtos higroscópicos. Aos dados experimentais foram ajustados diversos modelos matemáticos disponíveis na literatura (Brunauer-Emmett-Teller, Chung Pfost, Copace, Guggenhein-Anderson-de Boer, Halsey Modificado, Henderson, Henderson Modificado, Oswin, Sabbah e Sigma Copace). Segundo os parâmetros estatísticos de análise, o modelo de Halsey Modificado foi o que descreveu melhor a higroscopicidade do feijão. A partir dos resultados obtidos calculou-se o calor isostérico para cada teor de água de equilíbrio. Observou-se que o calor isostérico aumenta com a diminuição do conteúdo de água do produto, indicando que a redução do teor de água aumenta a energia necessária para a remoção de água. Os valores de calor isostérico para os grãos de feijão na faixa de umidade de 10,10 a 21,71 (% b.s.), variam de 3961 a 2718 kJ kg-1.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Estudou-se a influência de variáveis como cultivar, formato (cilindro e disco), branqueamento e condições do ar aquecido (temperatura: 50 e 70 ºC e velocidade: 0,14 e 0,42 m/s) sobre o comportamento de secagem convectiva de bananas com uso de modelagem matemática. As bananas foram desidratadas em secador de bandejas e pesada em intervalos pré-determinados. O modelo exponencial foi bem ajustado às curvas de secagem (R²: 0,98-0,99), mostrando que os fatores mais influentes sobre a taxa de secagem foram a temperatura, a velocidade do ar e o branqueamento. De acordo com as constantes cinéticas apresentadas pelo modelo recomenda-se a secagem de banana, em qualquer dos formatos estudados, nas seguintes condições: para banana-prata, uso de branqueamento e secagem a 50 ºC/0,42 m/s; e para banana-d'água, sem uso de branqueamento e secagem a 70 ºC/0,42 m/s.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho trata de uma visão panorâmica dos principais métodos utilizados, atualmente, na modelagem matemática de processos biológicos. Esses métodos são muito variados, com enfoques que, às vezes, são determinísticos, utilizando a teoria dos sistemas dinâmicos e, às vezes, são probabilísticos, lançando mão das equações diferenciais estocásticas. Em todos eles, entretanto, três fatores inerentes aos processos biológicos não podem deixar de ser considerados: a complexidade, a imprevisibilidade e a diversidade de escalas temporais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

É certo afirmar que muitas das organizações têm buscado aperfeiçoar seus processos, melhorar seu desempenho, ampliar seus mercados e principalmente medir seus resultados. O mercado postal, que teve como berço o setor estatal, diante das inúmeras transformações tecnológicas e o processo de globalização, tem conduzido as empresas que exploram o setor a se debaterem na busca de aperfeiçoamento das avaliações de seus desempenhos. As empresas postais do mundo inteiro têm procurado métodos capazes de dar sustentação às suas práticas para garantia e ampliação de seus mercados. A Empresa Brasileira de Correios e Telégrafos – ECT, criada em 1969, configurada com muitas lojas similares em todo o Brasil, que prestam e comercializam um conjunto de produtos e serviços semelhantes, mas que utilizam recursos diversos em intensidade diferente, possui sua atual avaliação de desempenho das lojas centrada em um único fator econômico financeiro, denominado índice de receitas e despesas – R/D. Esse índice não considera fatores que estão sendo utilizados pelas lojas, fora da visão financeira. Nesse ponto, considerada a importância e relevância do tema, é que surge a proposta de avaliar um conjunto de lojas da ECT do Rio Grande do Sul, através de modelagem matemática, utilizando uma técnica denominada data envelopment analysis – DEA (em português, análise envoltória de dados), que possibilita a inclusão de outras variáveis fora da visão econômica. Este trabalho tem como objetivos: (1) definir que variáveis podem ser utilizadas para a avaliação das lojas; (2) definir um conjunto de lojas similares, que executam as mesmas funções e que se diferenciam somente na intensidade da utilização dos recursos; (3) gerar, através da técnica, os resultados que podem ser obtidos a partir dos fatores quantitativos definidos e realizar análise de sensibilidades e (4) propiciar aos administradores um referencial para apoio à decisão. Espera-se que através da utilização da técnica seja possível: (1) identificar fatores que sejam usados de forma distinta nas lojas; (2) identificar que práticas estão sendo utilizadas pelas lojas consideradas eficientes e que podem contribuir para as lojas não eficientes e (3) permitir a participação dos gestores locais na alteração e extensão do modelo levando em conta as características das lojas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

No mundo todo busca-se a melhoria da qualidade das universidades através de avaliações periódicas. Também no Brasil tem sido realizado um grande esforço para a avaliação de universidades, especialmente as públicas. A departamentalização, vigente desde 1968, teve como conseqüência a separação entre o sistema administrativo e o acadêmico, com diferentes instâncias decisórias, diminuindo a integração e a flexibilidade da universidade. Essa situação vai de encontro ao que a sociedade atual está demandando: uma universidade dinâmica, que acompanhe as tendências tecnológicas, com alto nível de qualidade. Nesse contexto é que surge o interesse pela avaliação de departamentos de uma universidade, para verificar se estes, funcionando de uma maneira distinta, apresentam desempenhos similares. Mais especificamente, procura-se, neste trabalho: (1) definir, qualitativamente, os fatores relevantes para uma avaliação quantitativa multicriterial de departamentos acadêmicos de uma universidade; (2) efetuar comparação objetiva, via modelagem matemática, do desempenho dos departamentos; (3) diferenciar departamentos quanto à sua eficiência relativa; e (4) identificar os fatores que fazem departamentos serem mais (ou menos) eficientes. Focaliza-se a Universidade Federal do Rio Grande do Sul (UFRGS), de grande relevância no cenário nacional, com cursos de elevada qualidade, embora nem todos com o mesmo nível de excelência. O estudo emprega uma modelagem matemática, utilizando a técnica denominada Análise Envoltória de Dados (DEA, do inglês “Data Envelopment Analysis”). A aplicação da técnica aos departamentos da UFRGS oferece um mapeamento por eficiência relativa que, em vez de meramente criar uma escala ordinal (ranking), mostra o quanto um departamento é menos eficiente do que outro, em uma escala relacional, indicando, ainda, quais são os fatores que determinam eficiências distintas para os departamentos. Os resultados do estudo permitem: (1) destacar alguns pontos de ineficiência, que podem ser melhorados; (2) identificar características de departamentos mais eficientes, que possam ser repassadas aos menos eficientes, para que estes elevem seu desempenho; e (3) contribuir para a homogeneização da eficiência de todos os departamentos acadêmicos da UFRGS, com o intuito de aperfeiçoar a universidade como um todo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho aborda o desenvolvimento de um algoritmo de controle para servoposicionadores pneumáticos. Esses dispositivos são limpos, baratos e apresentam boa relação entre seu peso e a potência que são capazes de fornecer, o que os torna vantajosos para muitas aplicações. Seu emprego em tarefas de precisão é comprometido, no entanto, pelo seu comportamento fortemente não-linear. Visando compreender os fenômenos envolvidos, e realizar testes dos controladores propostos através de simulações, é realizado um estudo da modelagem matemática desses sistemas. Buscando situar este trabalho no campo de pesquisa proposto, é apresentada uma introdução aos critérios de estabilidade utilizados no âmbito dos sistemas não-lineares, com atenção especial ao Teorema da Estabilidade Assintótica de Lyapunov. Também são discutidas as técnicas de controle não-linear utilizadas neste trabalho. O controlador não-linear proposto é sintetizado com base na estratégia de controle em cascata. Essa técnica consiste na interpretação do servoposicionador como dois subsistemas interconectados: um subsistema mecânico e outro pneumático. O modelo do subsistema mecânico é utilizado para determinar o valor de pressão necessário para que o sistema siga a trajetória desejada. Com essa informação, é calculada a entrada de controle adequada para o subsistema pneumático, de forma que esta última forneça a pressão desejada ao subsistema mecânico. A fim de assegurar robustez ao sistema controlado frente à presença de incertezas paramétricas e de forças externas e/ou de atrito, utiliza-se uma técnica de controle a estrutura variável no subsistema pneumático. A lei originalmente proposta para o subsistema pneumático é, então, modificada, com os objetivos de eliminar a necessidade de monitorar o sinal de aceleração do sistema e de reduzir o grau de solicitação dos componentes eletromecânicos do servoposicionador. As propriedades de estabilidade e robustez do sistema em malha fechada são provadas analiticamente para cada uma das duas leis de controle propostas. As demonstrações são obtidas por meio da teoria de estabilidade de Lyapunov. Essas propriedades são corroboradas por meio de simulação do sistema controlado, com e sem a presença dos efeitos não-lineares do atrito e das incertezas paramétricas. Além de ratificar as características analiticamente previstas para o servoposicionador em malha fechada, os resultados das simulações também são utilizados para comparar os méritos das diferentes leis de controle propostas para o seguimento no subsistema pneumático.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The Rational Agent model have been a foundational basis for theoretical models such as Economics, Management Science, Artificial Intelligence and Game Theory, mainly by the ¿maximization under constraints¿ principle, e.g. the ¿Expected Utility Models¿, among them, the Subjective Expected Utility (SEU) Theory, from Savage, placed as most influence player over theoretical models we¿ve seen nowadays, even though many other developments have been done, indeed also in non-expected utility theories field. Having the ¿full rationality¿ assumption, going for a less idealistic sight ¿bounded rationality¿ of Simon, or for classical anomalies studies, such as the ¿heuristics and bias¿ analysis by Kahneman e Tversky, ¿Prospect Theory¿ also by Kahneman & Tversky, or Thaler¿s Anomalies, and many others, what we can see now is that Rational Agent Model is a ¿Management by Exceptions¿ example, as for each new anomalies¿s presentation, in sequence, a ¿problem solving¿ development is needed. This work is a theoretical essay, which tries to understand: 1) The rational model as a ¿set of exceptions¿; 2) The actual situation unfeasibility, since once an anomalie is identified, we need it¿s specific solution developed, and since the number of anomalies increases every year, making strongly difficult to manage rational model; 3) That behaviors judged as ¿irrationals¿ or deviated, by the Rational Model, are truly not; 4) That¿s the right moment to emerge a Theory including mental processes used in decision making; and 5) The presentation of an alternative model, based on some cognitive and experimental psychology analysis, such as conscious and uncounscious processes, cognition, intuition, analogy-making, abstract roles, and others. Finally, we present conclusions and future research, that claims for deeper studies in this work¿s themes, for mathematical modelling, and studies about a rational analysis and cognitive models possible integration. .

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nanocápsulas (NC), nanoesferas (NS) e nanoemulsão (NE) são propostas na literatura como carreadores submicrométricos de fármacos. Os objetivos deste trabalho são realizar um estudo comparativo para diferenciar o comportamento cinético desses sistemas e avaliar a influência da espessura da parede polimérica das NC no perfil de liberação de um modelo lipofílico de fármaco a partir de diversas formulações preparadas com diferentes concentrações de poli(-caprolactona) (PCL). Com esse propósito, o éster etílico de indometacina (IndOEt) foi associado a cada sistema e a sua hidrólise alcalina foi realizada para simular uma condição sink. As suspensões aquosas foram tratadas com solução aquosa de NaOH e a modelagem matemática dos perfis de consumo do IndOEt foi realizada. Uma vez que os derivados éster de indometacina têm sido relatados como inibidores seletivos da ciclooxigenase-2, também constitui objetivo deste trabalho avaliar a atividade antiedematogênica em ratos do IndOEt associado aos nanocarreadores através da inibição do edema em pata de rato induzido por carragenina. O IndOEt apresentou consumo total em 24 horas para NC, 12 horas para NS e 8 horas para NE. A modelagem matemática demonstrou que os perfis cinéticos apresentaram uma fase de liberação rápida, com tempo de meia-vida de 5,9, 4,4 e 2,7 minutos, e uma fase de liberação sustentada com tempos de meia-vida de 288,8, 87,7 e 147,5 minutos, respectivamente. Comparando-se os resultados, as NC apresentaram os maiores tempos de meia-vida para o modelo lipofílico de fármaco associado aos nanocarreadores Para todas as formulações preparadas com diferentes concentrações de PCL, a modelagem matemática dos perfis demonstrou que quanto menor a concentração de polímero empregada, mais rápido é o consumo do éster. Para todos os sistemas estudados, um ajuste satisfatório dos dados experimentais ao modelo da Lei das Potências foi obtido. A incorporação do IndOEt em NC e NS apresentou atividade antiedematogênica após a administração oral das formulações. Por outro lado, a associação do IndOEt na NE não inibiu o edema induzido pela carragenina.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento realizado para a implantação do novo sistema de despoeiramento dos Fornos Elétricos a Arco da Aciaria da Gerdau Riograndense. O desenvolvimento do novo sistema iniciou com a necessidade de substituir o antigo sistema de captação, pois este não estava obtendo o desempenho esperado. Os principais resultados obtidos com a implantação deste projeto foram o atendimento das especificações do projeto, comprovado pelos resultados obtidos nas medições de material particulado (MP), uma vez que as concentrações de material particulado medido estão abaixo do limite de emissão estabelecido pelo órgão de controle ambiental, e os resultados do estudo de dispersão, realizados para avaliar a qualidade do ar, utilizando modelagem matemática, atenderam aos limites legais de emissão estabelecidos pelo Conselho Nacional de Meio Ambiente - CONAMA. O estudo de dispersão foi elaborado após a implantação do sistema de despoeiramento, considerando os dados de entrada obtidos nas medições realizadas na saída dos gases da nova casa de filtros. As causas para o sucesso do projeto estão associadas a sólidos conhecimentos das tecnologias disponíveis da equipe responsável pela implantação do investimento, a visitas realizadas em outras empresas siderúrgicas, ao modelamento hidráulico que estabeleceu o dimensionamento correto do sistema e as experiências adquiridas na operação do antigo sistema de despoeiramento, pois orientaram as decisões tomadas no decorrer do projeto. A garantia da continuidade do desempenho do sistema implantado está assegurada por sua inclusão no programa de gestão ambiental da empresa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O planejamento dos recursos hídricos é uma tarefa complexa pois trata diretamente dos interesses de diversos setores da sociedade e gera freqüentemente conflitos pelo uso. Em se tratando de bacias hidrográficas esta relação de interesses se mostra bastante latente pois verifica-se toda a sorte de atividades humanas que se distribuem no espaço, ao mesmo tempo em que se observa o declínio dos recursos ambientais. Assim sendo torna-se evidente a necessidade de se compreender as inter-relações entre as forças que estimulam o processo produtivo na bacia hidrográfica. A tarefa exige um estudo mais amplo da bacia, no qual se considere as relações entre as diversas ações empreendidas pelo homem nesta unidade do espaço geográfico. Neste sentido a alteração do uso do solo se apresenta como um indicador das principais forças que promovem o desenvolvimento de uma região. Compreender como se dá este processo e capturar o padrão de evolução destas atividades no espaço da bacia significa, dentro do contexto dos recursos hídricos, possibilitar um melhor planejamento e gerenciamento das águas, tanto no aspecto qualitativo quanto quantitativo. Esta dissertação discute uma metodologia para simular o padrão de alteração de classes de uso do solo em uma bacia hidrográfica de médio porte. Para isso foram utilizadas técnicas de geoprocessamento, sensoriamento remoto e modelagem matemática. Foram considerados agentes motivadores da alteração do uso do solo a declividade do terreno e as distâncias das rodovias, dos centros urbanos e dos cursos d’água. Os resultados obtidos mostraram que a bacia de estudo avança no sentido de uma ação de degradação cada vez mais intensa em algumas regiões, caracterizada pela ocupação de áreas nativas e pela provável remoção da mata ciliar ao longo dos cursos d’água. Observou-se também que existe uma inércia maior com relação às alterações justamente nas regiões mais afastadas do centro urbano e das rodovias federais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Micropartículas nanorrevestidas foram preparadas através da secagem por aspersão empregando-se suspensões de nanocápsulas poliméricas como material de revestimento. Uma matriz 2³ foi empregada, e os fatores analisados foram o método de preparação de nanocápsulas (nanoprecipitação e emulsificação-difusão), o polímero [poli(ε-caprolactona) e Eudragit® RS100] e a forma de inclusão da indometacina nas micropartículas (nanocápsulas ou núcleo). Duas formulações adicionais foram preparadas associando a indometacina ao dióxido de silício em etapa única, empregando nanocápsulas obtidas através do método de nanoprecipitação com a poli(ε-caprolactona) e com o Eudragit® RS100. As suspensões de nanocápsulas foram caracterizadas através da medida do pH, do tamanho médio de partícula, do potencial zeta e da eficiência de encapsulação. As micropartículas nanorrevestidas foram caracterizadas quanto ao tamanho de partícula, a taxa de associação, ao rendimento, a área superficial e ao volume de poros. A análise morfológica foi realizada através da microscopia eletrônica de varredura e da microscopia óptica. Também foram determinados o tamanho médio de partícula e o potencial zeta dos pós ressuspendidos. Os perfis de dissolução foram avaliados em tampão fosfato pH 6,8 através da eficiência de dissolução, dos fatores de similaridade e de diferença, da modelagem matemática e do modelo da Lei da Potência. O conjunto dos resultados permitiu selecionar as formulações preparadas com Eudragit® RS100 como sendo as mais promissoras, porque apresentaram maior controle da liberação do fármaco. Em relação à técnica de preparação das nanocápsulas foi selecionada a nanoprecipitação, pois possibilitou a redução de tensoativos, o que torna o processo de secagem mais eficiente. Além disso, a estratégia de associação do fármaco em uma etapa demonstrou perfis de liberação mais controlados para as micropartículas nanorrevestidas. A modelagem matemática empregando a Lei da Potência permitiu a proposição de um modelo de dissolução, a desaglomeração do sistema nanorrevestido microparticulado.