55 resultados para previsão de safra
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
A velocidade do som é uma propriedade que vem sendo cada vez mais utilizada em diferentes áreas tecnológicas. Além disso, a velocidade do som é uma propriedade termodinâmica que está associada a outras propriedades do meio como a compressibilidade isentrópica e isotérmica, entre outras. Neste contexto, muitos estudos foram realizados a fim de obter modelos precisos que possam representar fielmente a velocidade do som, sendo observados desvios absolutos médios entre 0,13 e 24,8%. Neste trabalho, um banco de dados de velocidade do som e massa específica à pressão atmosférica de n-alcanos, alcanos ramificados, n-alcenos, aromáticos, alcoóis, éteres e ésteres, foram compilados da literatura aberta. Utilizando estes dados e baseando-se no modelo de Wada por contribuição de grupo recentemente proposto, foi desenvolvido um novo modelo por contribuição atômica para predizer a velocidade do som de todas as famílias dos compostos investigados neste trabalho. É mostrado que o modelo proposto é capaz de prever a velocidade do som para os compostos destas famílias com desvios próximos da incerteza experimental calculada a partir de diferentes dados da literatura. Este trabalho também discute o efeito da ramificação das cadeias na constante Wada, ressaltando a importância de novas medições para este tipo de compostos. Além disso, observou-se que a literatura necessita de mais dados experimentais de velocidade do som, à pressão atmosférica e diferentes temperaturas para substâncias puras presentes em biodiesel e bio-óleo de pirólise rápida. Neste contexto, o presente trabalho fornece novos dados experimentais de velocidade do som e massa específica de cinco ésteres metílicos de ácidos graxos, também conhecidos como FAMEs, (caprilato de metila, caprato de metila, palmitato de metila, estearato de metila e linoleato de metila), e sete componentes puros presentes em bio-óleo de pirólise à pressão atmosférica, de vários fenóis (fenol, o-, m- e p-cresol), dois éteres fenólicos (2-metoxifenol e eugenol) e um éster fenólico (salicilato de metila), a temperaturas de (288,15-343,15) K. O modelo preditivo de Wada atômico foi utilizado para calcular a velocidade do som dos FAMEs estudados neste trabalho, e os desvios foram comparados com o modelo de Wada por contribuição de grupo. O modelo atômico de Wada foi utilizado para prever a velocidade do som dos componentes puros presentes no bio-óleo de pirólise rápida experimentalmente estudados nesta dissertação. Além disso, os dados de massa específica e velocidade de som foram correlacionados com o modelo de Prigogine-Flory-Patterson (PFP). As propriedades foram bem representadas pelo modelo PFP, no entanto, para a velocidade do som o modelo apresenta desvios sistemáticos na dependência com a temperatura. O desempenho do modelo preditivo de Wada atômico foi considerado satisfatório, devido os desvios observados serem compatíveis ou até menores do que os desvios típicos obtidos na literatura com outros modelos correlativos para o cálculo da velocidade do som de outras substâncias
Resumo:
A previsão de valores futuros em séries temporais produzidas por sistemas caóticos pode ser aplicada em diversas áreas do conhecimento como Astronomia, Economia, Física, Medicina, Meteorologia e Oceanografia. O método empregado consiste na reconstrução do espaço de fase seguido de um termo de melhoria da previsão. As rotinas utilizadas para a previsão e análise nesta linha de pesquisa fazem parte do pacote TimeS, que apresenta resultados encorajadores nas suas aplicações. O aperfeiçoamento das rotinas computacionais do pacote com vistas à melhoria da acurácia obtida e à redução do tempo computacional é construído a partir da investigação criteriosa da minimização empregada na obtenção do mapa global. As bases matemáticas são estabelecidas e novas rotinas computacionais são criadas. São ampliadas as possibilidades de funções de ajuste que podem incluir termos transcendentais nos componentes dos vetores reconstruídos e também possuir termos lineares ou não lineares nos parâmetros de ajuste. O ganho de eficiência atingido permite a realização de previsões e análises que respondem a perguntas importantes relacionadas ao método de previsão e ampliam a possibilidade de aplicações a séries reais.
Resumo:
Trata da apresentação e discussão de um modelo de previsão de demanda de médicos para atendimentos de pacientes internados pelo SUS, com estudo de caso para o Estado do Rio de Janeiro. O modelo é baseado nos dados do Sistema de Informações Hospitalares do SUS (SIH/SUS) e nas alterações esperadas de tamanho e composição da população, segundo o IBGE. Descreve a trajetória e a motivação que levaram à construção do modelo, a partir da ideia de maior utilização do enorme potencial das bases de dados brasileiras para o planeamento e gestão dos RHS. Faz também comentários sobre conceitos da Tecnologia da Informação, que são de interesse para uma melhor compreensão das bases de dados, incluindo a utilização de padrões. Apresenta e comenta os resultados da aplicação do modelo, para o período de 2002 a 2022, para o Estado do Rio de Janeiro. Propõe sugestões de pesquisas com objetivo de melhorar a integração entre as bases de dados estudadas, a discussão da construção e utilização de indicadores, assim como uma proposta de evolução para o apoio à decisão na área de RHS.
Resumo:
O biodiesel tem sido amplamente utilizado como uma fonte de energia renovável, que contribui para a diminuição de demanda por diesel mineral. Portanto, existem várias propriedades que devem ser monitoradas, a fim de produzir e distribuir biodiesel com a qualidade exigida. Neste trabalho, as propriedades físicas do biodiesel, tais como massa específica, índice de refração e ponto de entupimento de filtro a frio foram medidas e associadas a espectrometria no infravermelho próximo (NIR) e espectrometria no infravermelho médio (Mid-IR) utilizando ferramentas quimiométricas. Os métodos de regressão por mínimos quadrados parciais (PLS), regressão de mínimos quadrados parciais por intervalos (iPLS), e regressão por máquinas de vetor de suporte (SVM) com seleção de variáveis por Algoritmo Genético (GA) foram utilizadas para modelar as propriedades mencionadas. As amostras de biodiesel foram sintetizadas a partir de diferentes fontes, tais como canola, girassol, milho e soja. Amostras adicionais de biodiesel foram adquiridas de um fornecedor da região sul do Brasil. Em primeiro lugar, o pré-processamento de correção de linha de base foi usado para normalizar os dados espectrais de NIR, seguidos de outros tipos de pré-processamentos que foram aplicados, tais como centralização dos dados na média, 1 derivada e variação de padrão normal. O melhor resultado para a previsão do ponto de entupimento de filtro a frio foi utilizando os espectros de Mid-IR e o método de regressão GA-SVM, com alto coeficiente de determinação da previsão, R2Pred=0,96 e baixo valor da Raiz Quadrada do Erro Médio Quadrático da previsão, RMSEP (C)= 0,6. Para o modelo de previsão da massa específica, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com R2Pred=0,98 e RMSEP (g/cm3)= 0,0002. Quanto ao modelo de previsão para o índice de refração, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com excelente R2Pred=0,98 e RMSEP= 0,0001. Para esses conjuntos de dados, o PLS e o SVM demonstraram sua robustez, apresentando-se como ferramentas úteis para a previsão das propriedades do biodiesel estudadas
Resumo:
Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.
Resumo:
A estabilidade de taludes naturais é um tema de grande interesse ao engenheiro geotécnico, face às significativas perdas econômicas, e até mesmo humanas, resultantes da ruptura de taludes. Estima-se que a deflagração de escorregamentos já provocou milhares de mortes, e dezenas de bilhões de dólares em prejuízos anuais em todo o mundo. Os fenômenos de instabilização de encostas são condicionados por muitos fatores, como o clima, a litologia e as estruturas das rochas, a morfologia, a ação antrópica e outros. A análise dos condicionantes geológicos e geotécnicos de escorregamentos proporciona a apreciação de cada um dos fatores envolvidos nos processos de instabilização de encostas, permitindo a obtenção de resultados de interesse, no que diz respeito ao modo de atuação destes fatores. O presente trabalho tem como objetivo a utilização da Lógica Nebulosa (Fuzzy) para criação de um Modelo que, de forma qualitativa, forneça uma previsão do risco de escorregamento de taludes em solos residuais. Para o cumprimento deste objetivo, foram estudados os fatores envolvidos nos processos de instabilização de encostas, e a forma como estes fatores se interrelacionam. Como experiência do especialista para a elaboração do modelo, foi analisado um extenso banco de dados de escorregamentos na cidade do Rio de Janeiro, disponibilizado pela Fundação Geo-Rio. Apresenta-se, neste trabalho, um caso histórico bem documentado para a validação do Modelo Fuzzy e análises paramétricas, realizadas com o objetivo verificar a coerência do modelo e a influência de cada um dos fatores adotados na previsão do risco de escorregamento. Dentre as principais conclusões, destaca-se a potencialidade da lógica nebulosa na previsão de risco de escorregamentos de taludes em solo residual, aparecendo como uma ferramenta capaz de auxiliar na detecção de áreas de risco.
Resumo:
A argila encontrada na Barra da Tijuca, Rio de Janeiro, é conhecida por ser muito mole e de peso específico bastante baixo. Passados 17 anos após a execução de um aterro em um dos depósitos argilosos da região, foram realizados ensaios de piezocone e SPT para aferir a espessura atual da camada mole. Tendo-se as espessuras originais da camada, determinadas a partir de ensaios de palheta e SPT na época da realização da obra, foi possível,assim, determinar o recalque que realmente ocorreu. O recalque primário foi calculado através dos parâmetros de compressibilidade previamente conhecidos daquele material. Foi aplicada a correção devido à submersão do aterro e, para isso, foi desenvolvida neste trabalho uma nova metodologia de cálculo para este efeito, considerando a submersão do aterro de forma gradual em todo o seu desenvolvimento matemático. Através da diferença entre o recalque total verificado nos ensaios e o recalque primário calculado, determinou-se a magnitude do recalque secundário. Com isso, estimou-se o OCR secundário do local. Este parâmetro surge da teoria que considera que os recalques secundários também ocorrem devido à variação das tensões efetivas, mas, nesse caso, horizontais. As principais conclusões desta pesquisa apontam para um valor de OCR secundário maior do que aquele já conhecido da argila de Sarapuí, que serviu de base para a referida teoria. Além disso, a proposta de cálculo do efeito da submersão se mostrou fácil e rápida de ser aplicada e forneceu resultados próximos daqueles obtidos pelas metodologias usuais.
Resumo:
Esta dissertação testa e compara dois tipos de modelagem para previsão de uma mesma série temporal. Foi observada uma série temporal de distribuição de energia elétrica e, como estudo de caso, optou-se pela região metropolitana do Estado da Bahia. Foram testadas as combinações de três variáveis exógenas em cada modelo: a quantidade de clientes ligados na rede de distribuição de energia elétrica, a temperatura ambiente e a precipitação de chuvas. O modelo linear de previsão de séries temporais utilizado foi um SARIMAX. A modelagem de inteligência computacional utilizada para a previsão da série temporal foi um sistema de Inferência Fuzzy. Na busca de um melhor desempenho, foram feitos testes de quais variáveis exógenas melhor influenciam no comportamento da energia distribuída em cada modelo. Segundo a avaliação dos testes, o sistema Fuzzy de previsão foi o que obteve o menor erro. Porém dentre os menores erros, os resultados dos testes também indicaram diferentes variáveis exógenas para cada modelo de previsão.
Resumo:
Uma das tarefas mais desafiadoras do engenheiro na área da Geotecnia é a escolha dos valores de parâmetros geotécnicos obtidos de ensaios de campo ou laboratório e que serão utilizados nos modelos analíticos ou numéricos na fase de projeto de fundações. Diante das incertezas inerentes aos ensaios de SPT e da heterogeneidade de abordagens para a utilização dos valores de NSPT, é proposta neste estudo, a aplicação de um critério estatístico para obtenção de valores de NSPT, a partir da construção de intervalos de confiança de 95% de probabilidade em torno da reta ajustada de regressão linear simples entre a variável aleatória NSPT e a profundidade. Os valores obtidos de NSPT pelo critério aplicado foram utilizados na previsão da capacidade de carga de 19 estacas isoladas a partir da utilização de três métodos semi-empíricos: Aoki-Velloso (1975) com coeficientes alterados por Monteiro (1997), Décourt & Quaresma (1978) alterado pelo método de Décourt (1996) e Método de Alonso (1996). As cargas de ruptura dessas 19 estacas ensaiadas através de Provas de Carga Estática foram obtidas pelos métodos de extrapolação de Van Der Veen (1953) e Décourt (1996) e serviram para comparação e consequente validação do critério estatístico. Adicionalmente, com fulcro no item 6.2.1.2.1 da ABNT NBR 6122:2010 Resistência calculada por método semi-empírico, foram avaliados os fatores de segurança em relação às cargas de projeto, inclusive, também se utilizando da premissa de reconhecimento de regiões representativas, levando em conta o número de ensaios de SPT executados, fato que promove uma diminuição da incerteza dos parâmetros, apontando a um menor fator de segurança. A dissertação enfatiza as vantagens de um adequado tratamento estatístico dos parâmetros geotécnicos, a exemplo da recomendação já existente nas normas internacionais como Eurocódigo e outras. O critério construído permite e encoraja análises e decisões racionais no universo das partes interessadas consumidores, projetistas, fiscais de obras, contratantes e comunidade científica promovendo as discussões de forma mais objetiva e harmoniosa sobre o tema.
Resumo:
A evolução tecnológica tem feito as empresas se modificarem, e para acompanhar o mercado elas buscam opções que possam ajudar melhor nas tomadas de suas decisões, uma delas é a utilização de tecnologias. A presente pesquisa objetiva analisar a contribuição da tecnologia da informação no orçamento da indústria Alfa. Esta pesquisa é descritiva e exploratória, pois busca descrever a realidade da organização, identificando as características do orçamento da mesma, é quantitativa, pois busca através de métodos estatísticos realizar previsões para o ano de 2013 das demonstrações de resultados advindos dos anos anteriores (2010 a 2012), é também, qualitativa, pois foi elaborado um questionário que pôde auxiliar na interpretação dos dados quantitativos, possibilitando melhores informações sobre o objetivo proposto. Concluiu-se que a tecnologia pode ajudar a melhorar a qualidade da previsão do orçamento da indústria Alfa e o método que melhor se adequou para as estimativas foi a suavização exponencial que demonstrou maior confiabilidade para os resultados.
Resumo:
Um dos temas mais estudados na área de finanças, em especial na análise de créditos, são os modelos que buscam prever a capacidade das empresas em se manterem solventes. Via de regra, tais estudos buscam, dentre vários indicadores, aqueles que se mostram mais apropriados para realizar tal predição. Nesse trabalho propõe-se um outro olhar sobre os modelos de previsão. Partindo de modelos já consagrados na literatura, escolheram-se os indicadores contábeis mais utilizados, que foram comparados, através da Análise Discriminante e da Regressão Logística, com os indicadores oriundos do Modelo Dinâmico. O objetivo do estudo foi verificar se os indicadores do Modelo Dinâmico oferecem melhores resultados que os indicadores tradicionais. O trabalho se baseia numa amostra com 48 empresas, composta de 24 insolventes e as outras 24 ditas como saudáveis, tratadas como pares das insolventes, escolhidas dentro do mesmo setor econômico de cada uma das insolventes. Além disso, foi incluída no estudo a classificação de empresas de Fleuriet como variável qualitativa. Os resultados obtidos não apresentam evidências sobre a superioridade de um ou outro conjunto de indicadores, mas, os melhores resultados alcançados derivam da inclusão da classificação de empresas de Fleuriet, seja através da Análise Discriminante, seja através da Regressão Logística, conseguindo no melhor dos resultados, um percentual de acerto total de 83,3%. A análise minuciosa dos erros de classificação ensejou uma proposta de reordenação dos tipos de situação de liquidez originalmente propostos por Fleuriet.
Resumo:
Esta dissertação apresenta resultados da aplicação de filtros adaptativos, utilizando os algoritmos NLMS (Normalized Least Mean Square) e RLS (Recursive Least Square), para a redução de desvios em previsões climáticas. As discrepâncias existentes entre o estado real da atmosfera e o previsto por um modelo numérico tendem a aumentar ao longo do período de integração. O modelo atmosférico Eta é utilizado operacionalmente para previsão numérica no CPTEC/INPE e como outros modelos atmosféricos, apresenta imprecisão nas previsões climáticas. Existem pesquisas que visam introduzir melhorias no modelo atmosférico Eta e outras que avaliam as previsões e identificam os erros do modelo para que seus produtos sejam utilizados de forma adequada. Dessa forma, neste trabalho pretende-se filtrar os dados provenientes do modelo Eta e ajustá-los, de modo a minimizar os erros entre os resultados fornecidos pelo modelo Eta e as reanálises do NCEP. Assim, empregamos técnicas de processamento digital de sinais e imagens com o intuito de reduzir os erros das previsões climáticas do modelo Eta. Os filtros adaptativos nesta dissertação ajustarão as séries ao longo do tempo de previsão. Para treinar os filtros foram utilizadas técnicas de agrupamento de regiões, como por exemplo o algoritmo de clusterização k-means, de modo a selecionar séries climáticas que apresentem comportamentos semelhantes entre si. As variáveis climáticas estudadas são o vento meridional e a altura geopotencial na região coberta pelo modelo de previsão atmosférica Eta com resolução de 40 km, a um nível de pressão de 250 hPa. Por fim, os resultados obtidos mostram que o filtro com 4 coeficientes, adaptado pelo algoritmo RLS em conjunto com o critério de seleção de regiões por meio do algoritmo k-means apresenta o melhor desempenho ao reduzir o erro médio e a dispersão do erro, tanto para a variável vento meridional quanto para a variável altura geopotencial.
Resumo:
No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.
Resumo:
A discussão sobre a atuação do Estado nas políticas públicas de Saúde remonta a constituição alemã de Weimar, em 1919 até os dias de hoje. No Brasil, esta discussão avança em dois momentos da década de 80: o primeiro é o registro dos casos de AIDS inicialmente detectados em 1980, enfermidade vista como problema de determinados grupos sociais de comportamentos desviantes e não da sociedade como um todo, acarretando movimento por parte da sociedade civil atingida pela doença, através de organizações não-governamentais que se especializaram na luta contra a discriminação do portador do vírus HIV e do doente de AIDS. O segundo momento é a promulgação da Constituição da República de 1988, texto normativo que estabeleceu diretrizes referentes ao fornecimento de serviços de saúde por parte do Estado, elevando a saúde a categoria de direito fundamental social. Estes movimentos liderados pelas organizações não-governamentais, pressionaram o Estado, através do Poder Judiciário para garantir o cumprimento de seus direitos de cidadãos previstos na Constituição, uma vez que o desrespeito aos direitos das pessoas que vivem com HIV/AIDS era crescente no Brasil. Para desenvolvimento da presente tese foi utilizada a pesquisa documental das decisões em todas as instâncias do Poder Judiciário, passando pelo Tribunal Estadual do Rio de Janeiro até chegar a cúpula do Poder Judiciário, o Supremo Tribunal Federal, aprofundando o estudo nas decisões que deferiram os pedidos referentes ao fornecimento de medicamentos para os doentes de AIDS. Foram utilizados documentos doutrinários para fundamentar a necessidade da aplicabilidade das normas constitucionais de forma imediata e não como meros programas para o poder público. Ao levantar estes documentos, observou-se que a previsão constitucional, e as decisões dos órgãos do Poder Judiciário, caminhavam não só para garantir os direitos das pessoas que vivem com HIV/AIDS, mas também para estender esta política pública a outras doenças degenerativas do organismo humano de forma a possibilitar a aplicação da previsão normativa não somente àquela doença.
Resumo:
Nas últimas décadas, teorias têm sido formuladas para interpretar o comportamento de solos não saturados e estas têm se mostrado coerentes com resultados experimentais. Paralelamente, várias técnicas de campo e de laboratório têm sido desenvolvidas. No entanto, a determinação experimental dos parâmetros dos solos não saturados é cara, morosa, exige equipamentos especiais e técnicos experientes. Como resultado, essas teorias têm aplicação limitada a pesquisas acadêmicas e são pouco utilizados na prática da engenharia. Para superar este problema, vários pesquisadores propuseram equações para representar matematicamente o comportamento de solos não saturados. Estas proposições são baseadas em índices físicos, caracterização do solo, em ensaios convencionais ou simplesmente em ajustes de curvas. A relação entre a umidade e a sucção matricial, convencionalmente denominada curva característica de sucção do solo (SWCC) é também uma ferramenta útil na previsão do comportamento de engenharia de solos não saturados. Existem muitas equações para representar matematicamente a SWCC. Algumas são baseadas no pressuposto de que sua forma está diretamente relacionada com a distribuição dos poros e, portanto, com a granulometria. Nestas proposições, os parâmetros são calibrados pelo ajuste da curva de dados experimentais. Outros métodos supõem que a curva pode ser estimada diretamente a partir de propriedades físicas dos solos. Estas propostas são simples e conveniente para a utilização prática, mas são substancialmente incorretas, uma vez que ignoram a influência do teor de umidade, nível de tensões, estrutura do solo e mineralogia. Como resultado, a maioria tem sucesso limitado, dependendo do tipo de solo. Algumas tentativas têm sido feitas para prever a variação da resistência ao cisalhamento com relação a sucção matricial. Estes procedimentos usam, como uma ferramenta, direta ou indiretamente, a SWCC em conjunto com os parâmetros efetivos de resistência c e . Este trabalho discute a aplicabilidade de três equações para previsão da SWCC (Gardner, 1958; van Genuchten, 1980; Fredlund; Xing, 1994) para vinte e quatro amostras de solos residuais brasileiros. A adequação do uso da curva característica normalizada, proposta por Camapum de Carvalho e Leroueil (2004), também foi investigada. Os parâmetros dos modelos foram determinados por ajuste de curva, utilizando técnicas de problema inverso; dois métodos foram usados: algoritmo genético (AG) e Levenberq-Marquardt. Vários parâmetros que influênciam o comportamento da SWCC são discutidos. A relação entre a sucção matricial e resistência ao cisalhamento foi avaliada através de ajuste de curva utilizando as equações propostas por Öberg (1995); Sällfors (1997), Vanapalli et al., (1996), Vilar (2007); Futai (2002); oito resultados experimentais foram analisados. Os vários parâmetros que influênciam a forma da SWCC e a parcela não saturadas da resistência ao cisalhamento são discutidos.