29 resultados para Coeficientes ofensivos
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.
Resumo:
Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.
Resumo:
O presente trabalho tem como ponto de partida os problemas que podem advir doexercício potencialmente danoso da liberdade de expressão. Desta forma, foram estabelecidas, inicialmente, as premissas sobre as quais se deve fundamentar o Direito Penal no seio de um Estado Democrático de Direito. Posteriormente, foram analisados os contornos do bem jurídico limitado pela eventual intervenção penal, bem como as características e principais formas de manifestação do problema, tendo sido estabelecido, ainda, um panorama do tratamento jurídico-penal conferido ao problema nos Estados Unidos, na Alemanha, na Corte Europeia de Direitos Humanos e no Brasil. Da análise restou comprovado que há uma tendência majoritária à admissibilidade da intervenção penal sobre o problema, limitando discursos potencialmente danosos como forma de promover uma sociedade mais pluralista e tolerante. Partindo-se desta constatação, buscou-se elaborar uma proposta dogmática que possa servir como mecanismo de limitação do poder punitivo, estabelecendo-se critérios minimamente satisfatórios para a aferição da potencialidade lesiva de um discurso. Por fim, apresentou-se uma análise crítica a respeito de tais processos criminalizatórios, já que constituem mera tentativa de promoção de minha exposição valores por meio do Direito Penal, o que não poderia ser admitido num Estado Democrático de Direito.
Resumo:
O afrouxamento dos parafusos protéticos é descrito na literatura como uma das complicações mais frequentes das próteses sobre implantes. Durante sua confecção, os profissionais sentem necessidade de remover várias vezes as próteses e/ou componentes protéticos, soltando e re-apertando os parafusos repetidamente. O principal objetivo deste trabalho foi avaliar a variação do torque de remoção de parafusos de fixação de pilares protéticos a implantes osteointegráveis após sucessivos ciclos de parafusamento e desparafusamento. Outro objetivo foi avaliar a influência do hexágono da base do pilar no torque de remoção dos parafusos. Para isso, foram utilizados 20 implantes de plataforma regular com hexágono externo e 20 pilares protéticos sextavados, que foram parafusados aos implantes com um parafuso de titânio, aplicando-se a este um torque de 32Ncm, por meio de um torquímetro digital. Os conjuntos implante/pilar/parafuso foram divididos em dois grupos: (1) pilares cujo hexágono da base foram removidos e (2) pilares convencionais, com hexágono na base. Cada conjunto recebeu uma restauração provisória e foi submetido a ciclagem mecânica por 15 minutos. Depois, os parafusos foram removidos, medindo-se o torque de remoção. Esta sequência foi repetida dez vezes e então o parafuso foi trocado por outro sem uso, e mais um ciclo foi realizado. Uma análise de regressão linear demonstrou nos dois grupos uma queda do torque de remoção do parafuso ao longo dos repetidos ciclos de inserção/remoção. A comparação entre os coeficientes da regressão nos dois grupos não revelou diferença entre eles. Também não houve diferença entre as médias das 5 últimas repetições e o 11 ciclo, com o parafuso novo. Concluiu-se que (1) repetidos parafusamentos e desparafusamentos promoveram a diminuição progressiva do torque de remoção dos parafusos, (2) a troca do parafuso por outro sem uso após dez ciclos de inserção/remoção não aumentou sua resistência ao afrouxamento, e (3) a remoção do hexágono da base do pilar protético não exerceu nenhum efeito sobre o torque de remoção do parafuso.
Resumo:
O presente trabalho teve como objetivo principal comparar dois métodos de extração de elementos-traço em sedimentos que são assistidos por radiação micro-ondas. Foram coletadas amostras de sedimentos superficiais em um manguezal localizado na baía da Ilha Grande e em três manguezais localizados na baía de Sepetiba, RJ. As amostras de sedimentos coletadas foram secas, destorroadas e peneiradas. Sub-amostras foram submetidas a análises de caracterização física e química. Os métodos de extração de elementos-traço comparados foram o EPA-3051A e o método água régia assistido por micro-ondas. Os elementos-traço analisados foram: Cd, Cr, Cu, Ni, Pb e Zn. As concentrações dos elementos-traço nos extratos produzidos foram determinadas por FAAS (Espectrometria de absorção atômica com chama). Foram encontradas nos sedimentos dos manguezais estudados concentrações acima dos níveis estabelecidos pela Resolução CONAMA 344/2004 para os elementos-traço: Cd, Ni, Pb e Zn. Os resultados mostraram que as capacidades de extração de elementos-traço dos métodos EPA-3051A e água régia assistido por micro-ondas variam em função das características físico-químicas dos sedimentos. A análise estatística pela técnica de regressão linear simples mostrou que as duas metodologias são estatisticamente similares apenas para o Cr e os valores dos coeficientes de determinação (R2) obtidos obedeceram à seqüência: Cu > Pb > Zn > Ni > Cr > Cd. Na análise pela técnica estatística de regressão linear múltipla ocorreram melhorias estatisticamente significativas nos coeficientes de determinação quando foram incluídas as seguintes variáveis independentes: potencial redox e fósforo total para o Cd, argila para o Cr, areia para o Ni e fósforo total para o Pb e para o Zn
Resumo:
O fator de compressibilidade (Z) de gás natural é utilizado em vários cálculos na engenharia de petróleo (avaliação de formações, perda de carga em tubulações, gradiente de pressão em poços de gás, cálculos de balanço de massa, medição de gás, compressão e processamento de gás). As fontes mais comuns de valores de Z são medições experimentais, caras e demoradas. Essa propriedade também é estimada por correlações empíricas, modelos baseados no princípio dos estados correspondentes ou equações de estado (EOS). Foram avaliadas as capacidades das EOS de Soave-Redlich-Kwong (SRK), Peng-Robinson (PR), Patel-Teja (PT), Patel-Teja-Valderrama (PTV), Schmidt-Wenzel (SW), Lawal-Lake-Silberberg (LLS) e AGA-8 para previsão desta propriedade em aproximadamente 2200 pontos de dados experimentais. Estes pontos foram divididos em quatro grupos: Grupo 1 (Presença de frações C7+, Grupo 2 (temperaturas inferiores a 258,15 K), Grupo 3 (pressões superiores a 10000 kPa) e Grupo 4 (pressões inferiores a 10000 kPa). Os cálculos utilizando as equações de estado sob diferentes esquemas de previsão de coeficientes binários de interação foram cuidadosamente investigados. Os resultados sugerem que a EOS AGA-8 apresenta os menores erros para pressões de até 70000 kPa. Entretanto, observou-se uma tendência de aumento nos desvios médios absolutos em função das concentrações de CO2 e H2S. As EOS PTV e a EOS SW são capazes de predizer o fator de compressibilidade (Z) com desvios médios absolutos entre os valores calculados e experimentais com precisão satisfatória para a maioria das aplicações, para uma variada faixa de temperatura e pressão. Este estudo também apresenta uma avaliação de 224 métodos de cálculo de Z onde foram utilizadas 8 correlações combinadas com 4 regras de mistura para estimativa de temperaturas e pressões pseudorreduzidas das amostras, junto com 7 métodos de caracterização das propriedades críticas da fração C7+, quando presente na composição do gás. Em função dos resultados são sugeridas, para diferentes tipos de sistemas, as melhores combinações de correlações com regras de mistura capazes de predizer fatores de compressibilidade (Z) com os menores erros absolutos médios relativos
Resumo:
A presente dissertação discute o repasse cambial para o IPCA na economia brasileira durante o período compreendido entre janeiro de 1999 e dezembro de 2007. A ampla maioria dos trabalhos que versam sobre este tema aborda a redução do repasse após a adoção do regime de metas de inflação e/ou tem como único foco o impacto das desvalorizações cambiais no aumento dos índices de preços. Este trabalho, por outro lado, aborda de maneira explícita o papel da valorização do Real sobre a variação do IPCA no período recente, configurando o que denominamos de repasse cambial reverso. Para tanto, estimamos o repasse cambial por meio de um modelo de vetores auto-regressivos tanto para o referido período (1999-2007), quanto para outros dois recortes temporais: entre janeiro de 1999 e junho 2003 (amostra 1), período no qual se verifica uma tendência de desvalorização cambial e aumento de preços; e de julho de 2003 a dezembro de 2007 (amostra 2), período caracterizado pelo processo inverso, de valorização da taxa de câmbio e de cumprimento das metas de inflação na maioria dos anos. Os principais resultados foram: (i) no longo prazo os coeficientes de repasse cambial para o IPCA para as duas amostras foram superiores àqueles verificados para o período completo; e (ii) o repasse estimado para a amostra 2 foi bem elevado, ainda que inferior àquele obtido para a amostra 1. Estes resultados reforçam o argumento de que a taxa de câmbio desempenhou um papel proeminente no controle da inflação no período 2003-2007.
Resumo:
O objetivo principal desta dissertação é analisar a demanda por moeda no Brasil no período 1974 a 2008, lembrando que ele inclui sub-períodos de inflação elevada, e baixa, e levando em conta hipóteses alternativas quanto à formação de expectativas. A especificação adotada é a de Tourinho (1995), que generaliza a de Cagan (1956) para permitir uma forma funcional mais flexível e incorporar outras variáveis, além da inflação esperada, como variáveis explicativas. Verifica-se que estas extensões são importantes para modelar a demanda por saldos monetários reais no período aqui considerado. A forma funcional semi-log de Cagan é rejeitada, em favor de uma forma funcional flexível Box-Cox, e os coeficientes da taxa de juros real e da variância da inflação são significativos, mostrando a importância destas variáveis serem inseridas ao modelo. A função estimada para o período completo é comparada com aquelas estimadas para os sub-periodos de inflação alta e moderada, para verificar a estabilidade da formulação adotada. Conclui-se que se pode rejeitar a hipótese de que ela é estável. O modelo de Cagan é generalizado aqui em outra dimensão, considerando mecanismos alternativos de formação de expectativas, que podem ser adaptativas, como no modelo original, ou racionais. A hipótese de que expectativas adaptativas sejam racionais é também considerada. Conclui-se que a imposição da condição de racionalidade ao modelo com expectativas adaptativas não produz alterações importantes nos valores estimados.
Resumo:
Um dos grandes desafios enfrentados pela indústria do petróleo é reduzir o impacto causado pela cristalização indesejável de hidrocarbonetos parafínicos de elevada massa molar em tubulações e equipamentos de produção. A cristalização de parafinas em petróleo é normalmente detectada através da determinação da temperatura inicial de aparecimento de cristais (TIAC), que pode ser estimada através de modelagem termodinâmica com base na composição do petróleo. Os objetivos deste trabalho são: estudar os principais modelos termodinâmicos adotados para descrever a precipitação de parafinas; verificar a validade desses modelos para os petróleos brasileiros e determinar qual modelo é o mais adequado para esses óleos. Para tanto, três formas de cálculo da razão entre as fugacidades das fases sólida e líquida e cinco modelos para calcular os coeficientes de atividade dos componentes em cada fase são aplicados aos dados de composição de vinte e três petróleos brasileiros. Os resultados mostram que o modelo ideal de múltiplas fases sólidas e o modelo de Escobar-Remolina geram valores bastante abaixo da TIAC experimental. Para os modelos de única fase sólida ideal, de Won e de Coutinho, foi possível observar que: a) a grande maioria dos erros é negativa; b) que estes se distribuem melhor em torno de zero quando se utiliza a correlação de Coutinho para o cálculo dos valores de i; c) os valores de erro médio para os modelos de Coutinho, de Won e ideal com única fase sólida se equivalem, qualquer que seja o modelo utilizado para o cálculo de i, exceto para o caso em que todos os compostos presentes na fase líquida podem precipitar; d) os valores obtidos através do modelo de Coutinho apresentam erro sistemático em relação ao modelo ideal de única fase sólida; e) as diferentes formas de se calcular a razão entre as fugacidades da fase sólida e líquida (i) influenciam fortemente a capacidade preditiva dos modelos, o que não era esperado; f) o perfil do primeiro cristal formado nos petróleos é influenciado pelas moléculas mais pesadas presentes nos resíduos, o que mostra a necessidade de se desenvolver metodologias precisas e robustas de caracterização de resíduos; g) a inclusão de uma estimativa para a composição dos resíduos efetivamente melhorou o desempenho dos modelos em petróleos médio; h) em petróleos pesados, houve um aumento do erro de previsão da TIAC devido à pouca ou nenhuma quantidade de parafinas nos resíduos desses óleos. A necessidade de uma melhor caracterização dos resíduos de petróleos é corroborada pelo fato da TIAC calculada pelos modelos ser, via de regra, mais baixa que a TIAC experimental e pela melhora no desempenho dos modelos quando se estimou a composição dos resíduos, em petróleos médios
Resumo:
As preocupações com o meio ambiente em particular com a água, adquirem especial importância, porque as demandas estão se tornando cada vez maiores, sob o aspecto crescente da população e das atividades industriais. Quando se fala em água subterrânea, a primeira ideia que surge é que ela seja potável. Mas nem sempre isso é uma verdade. Em área urbana, os crescentes números de problemas devido a contaminação, na maioria das vezes por vazamentos de combustíveis oriundos dos tanques de armazenamento dos postos de gasolina. Sem falar nas indústrias que também oferecem potencial risco de contaminação para esses corpos hídricos e são pouco divulgadas. O presente trabalho tem como foco determinar os compostos clorobenzenos por cromatografia de fase gasosa com headspace (CG-HS) em matriz água e validar a metodologia. A metodologia usada neste estudo foi cromatografia de fase gasosa com headspace (CG HS), por ser uma técnica excelente e sensível e é utilizada para determinar compostos voláteis em baixas concentrações. Os dados obtidos foram tratados estatisticamente de modo avaliar a seletividade, os limites de detecção e quantificação, a faixa linear de trabalho, a linearidade e a recuperação. As recuperações variam de 80 a 110%, os coeficientes de variação obtidos foram menor que 20%, todas as substâncias estudadas apresentaram linearidade na faixa de trabalho de 0,8 a 100g.L-1. Foram estudadas 10 amostras de água subterrânea do Município do Rio de Janeiro e nas amostras analisadas foram encontrados todos os compostos em estudo, com faixa de concentração: monoclorobenzeno (<0,8 a 2,988g.L-1); 1,3-diclorobenzeno (<0,8 a 23,067g.L-1); 1,4-diclorobenzeno (nd a 16,160g.L-1); 1,2-diclorobenzeno (<0,8 a 48,685g.L-1); 1,3,5-triclorobenzeno (<0,8 a 21,900g.L-1); 1,2,4-triclorobenzeno (1,007 a 183,808g.L-1) e 1,2,3-triclorobenzeno (<0,8 a 126,886g.L-1)
Resumo:
Esta tese tem o objetivo geral de investigar a associação entre estresse e acidentes no trabalho em funcionários técnico-administrativos efetivos de uma universidade pública no Rio de Janeiro por meio de modelos multiníveis. Para alcançar tal objetivo, a tese foi distribuída em dois artigos. O primeiro artigo investiga a associação entre estresse e acidentes no trabalho considerando componentes hierárquicos da estrutura dos dados por meio de modelos multiníveis com funcionários no primeiro nível agrupados em setores de trabalho no segundo nível. O segundo artigo investiga o comportamento dos coeficientes fixos e aleatórios dos modelos multiníveis com classificação cruzada entre setores de trabalho e grupos ocupacionais em relação aos modelos multiníveis que consideram apenas componentes hierárquicos dos setores de trabalho, ignorando o ajuste dos grupos ocupacionais. O estresse psicossocial no trabalho foi abordado a partir das relações entre alta demanda psicológica e baixo controle do processo laboral, Estas dimensões foram captadas por meio da versão resumida da escala Karasek, que também contém informações sobre o apoio social no trabalho. Dimensões isoladas do estresse no trabalho (demanda e controle), razão entre demanda psicológica e controle do trabalho (Razão D/C) e o apoio social no trabalho foram mensurados no nível individual e nos setores de trabalho. De modo geral, os resultados destacam a demanda psicológica mensurada no nível individual como um importante fator associado à ocorrência de acidentes de trabalho. O apoio social no trabalho, mensurado no nível individual e no setor de trabalho, apresentou associação inversa à prevalência de acidentes de trabalho, sendo, no setor, acentuada entre as mulheres. Os resultados também mostram que os parâmetros fixos dos modelos com e sem classificação cruzada foram semelhantes e que, de modo geral, os erros padrões (EP) foram um pouco maiores nos modelos com classificação cruzada, apesar deste comportamento do EP não ter sido observado quando relacionado aos coeficientes fixos das variáveis agregadas no setor de trabalho. A maior distinção entre as duas abordagens foi observada em relação aos coeficientes aleatórios relacionados aos setores de trabalho, que alteraram substancialmente após ajustar o efeito da ocupação por meio dos modelos com classificação cruzada. Este estudo reforça a importância de características psicossociais na ocorrência de acidentes de trabalho e contribui para o conhecimento dessas relações a partir de abordagens analíticas que refinam a captação da estrutura de dependência dos indivíduos em seu ambiente de trabalho. Sugere-se a realização de outros estudos com metodologia similar, que permitam aprofundar o conhecimento sobre estresse e acidentes no trabalho.
Resumo:
Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.
Resumo:
A descoberta de reservatórios de petróleo na camada do pré-sal abriu novas perspectivas para a economia brasileira. A grandes profundidades, com elevado teor de CO2 e submetidos a altas pressões e temperaturas, a exploração de petróleo das camadas de pré-sal constitui um considerável desafio tecnológico. Neste contexto, o conhecimento dos coeficientes de compressibilidade são fundamentais para o estudo do comportamento termodinâmico e escoamento dos fluidos destes campos de produção. Com este objetivo, foram determinadas experimentalmente nesta dissertação a massa específica e a velocidade do som de sistemas envolvendo quatro hidrocarbonetos puros: n-decano, n-hexadecano, decalina e tetralina, assim como para sistemas multicompostos envolvendo estes hidrocarbonetos e para uma amostra de condensado de petróleo. Os resultados obtidos permitiram o cálculo dos coeficientes de compressibilidade isentrópica, isotérmica e isentálpica. É apresentada uma avaliação sobre a capacidade de se correlacionar dados experimentais de velocidade do som aos dados calculados pelas equações de estado de Peng-Robinson e Lee-Kesler com regras de mistura: (i) Spencer e Danner e (ii) Lee-Kesler
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
Este trabalho teve como objetivo descrever o potencial de biossorção de lantânio pelas microalgas Ankistrodesmus sp. e Golenkinia sp. livres e pellets de alginato de cálcio, com e sem as microalgas imobilizadas, a partir de soluções aquosas. Para isso foram realizados estudos em regime batelada e em coluna de leito fixo. Modelos cinéticos de pseudo-primeira ordem e de segunda ordem e isotermas de equilíbrio de Langmuir e de Freundlich foram utilizados para a descrição quantitativa e a previsão do comportamento de adsorção do metal pelas biomassas livres e imobilizadas no sistema descontínuo. Os dados foram mais bem ajustados pelo modelo cinético de segunda ordem, com coeficientes de determinação (r2) maiores que 0,98. Foram obtidos tempos de equilibrio muito curtos, na faixa de 1-30 minutos. A isoterma de Langmuir foi a que melhor se ajustou aos dados experimentais, com valores de r2 maiores que 0,94. Foram observados valores de qmáx, isto é, a quantidade máxima de metal captado pelo biossorvente, entre 0,96 e 10,43 mmol/g. As células livres mostraram-se mais eficientes do que os pellets caracterizados com e sem os micro-organismos. Os pellets mostraram melhor potencial quando contendo microalgas imobilizadas, em comparação com eles puros. No estudo dinâmico, 12 L de solução contendo uma concentração de La (III) de 150 mmol/L ascenderam pela coluna contendo Ankistrodesmus sp. e Golenkinia sp. imobilizadas e pellets de alginato de cálcio puros durante 8 horas. No último minuto, os três biossorventes ainda apresentaram cerca de 80% de eficiência de remoção. Desta forma, o ponto de satuação não foi atingido. A rápida e alta capacidade de adsorção das microalgas revelou que sua aplicação em escala superior é possível em ambos os processos estudados, uma vez que a imobilização desses biomateriais não mudou a sua capacidade de sorção e nem o rápido contato entre o adsorvente e o soluto no processo de biossorção de lantânio