26 resultados para Sistema integrado (processamento de dados)

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os Hospitais Universitários (HUs) enfrentam muitos problemas em sua gestão financeira. Assim, receitas insuficientes para suprir despesas culminam numa situação deficitária. O índice de inadimplência dos hospitais é alto; por conseqüência, o prazo de pagamento dos fornecedores prorrogado. No ano de 2006, foi estabelecida uma reestruturação financeira e orçamentária denominada Plano Operativo Anual (POA), juntamente com o Ministério da Saúde e o Ministério da Educação, no intuito de tentar minimizar o déficit dos HUs. Tendo em vista tal situação, este trabalho de pesquisa visa a relatar como um Sistema Integrado de Gestão (ERP) pode aprimorar, bem como monitorar, o desempenho do POA e sua eficácia servindo de instrumento de orçamento das receitas hospitalares baseados em metas. A partir deste contexto, teremos como ponto de partida o estudo do caso do aprimoramento quanto à inserção do Hospital Universitário Gaffrée e Guinle (HUGG) no Sistema Único de Saúde (SUS), através da contratação dos serviços de saúde ofertados pelo hospital e seu respectivo modelo de financiamento, bem como os mecanismos de acompanhamento e avaliação das atividades de atenção, gestão, ensino e pesquisa. Com isso, ocorre a agilização dos procedimentos diários, maior eficiência na gestão hospitalar. Evita-se assim; entre outros; problemas concernentes ao setor financeiro da instituição.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Para avaliar um sistema integrado de aquicultura foram realizadas análises microbiológicas da água utilizada neste sistema e determinada a incidência e resistência antimicrobiana dos enteropatógenos no ecossistema relacionado. As amostras de água testadas apresentaram 32,9% de taxas de coliformes fecais (≤1.600/100mL), de acordo com a OMS para piscicultura em águas residuais. Salmonella spp. foram detectadas em 14,5% das amostras. De um total de 33 cepas, 15,1% eram resistentes a um ou dois antimicrobianos testados e resistência a múltiplas drogas não foi observada. Aeromonas spp. foram identificadas em 91,6% das amostras. De um total de 416 cepas, resistência a uma classe de antimicrobianos foi observada em 66,3% e a multirresistência às drogas em 37,7%. Na avaliação da virulência dos isolados de Aeromonas hydrophila, 85,3% das cepas apresentaram Beta-hemólise nos três diferentes tipos de eritrócitos empregados e 99,1% nos eritrócitos de coelho e cavalo, sendo possível a caracterização através da PCR do gene aerA e lip, em 100% das amostras. Os resultados obtidos apontam para a relevância quanto às vantagens da implementação de um sistema integrado, disponibilizando alimentos com custo reduzido, porém este sistema necessita de um controle rígido e efetivo para que estes produtos não constituam veículos para a disseminação de doenças.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A tecnologia da biodigestão anaeróbia tem sido comprovada como uma das mais eficientes no tratamento dos dejetos de suínos, esta tecnologia, encontra-se num crescimento tímido em Angola facilitando assim uma poluição maior dos Rios, solos e o ar atmosférico, por falta de tratamento adequado da biomassa produzida por milhares de suínos existentes neste País. O emprego do biogás como fonte de energia para o funcionamento dos equipamentos ainda encontra limitações de ordem tecnológica e por falta de informação, organização e em muitos casos apoios tecnológicos e de instituições governamentais ou Não Governamentais. Este trabalho avaliou a viabilidade técnica, na implantação de Biodigestores na Região de Icolo Bengo em Angola. Foi estudada a implantação de Biodigestores, Modelo Indiano, na fazenda Menga assim como o potencial de geração de energia elétrica existente na produção de Biogás. O tratamento anaeróbio dos resíduos de Suínos como fonte renovável de energia, dentro de um conceito de desenvolvimento sustentável e de racionalização da produção sem agressão ao Meio-Ambiente também são referenciados mostrando que esta tecnologia pode ser apropriada como estratégia de conservação e uso eficiente da energia elétrica que é muito escasso em Angola. O emprego da biodigestão anaeróbia neste caso é possível e desejável, uma vez que contribui para preservação do Meio Ambiente, viabiliza os modernos sistemas de confinamento e reduz o custo da produção assim como ajuda na produção de energia elétrica e de fertilizantes. Um sistema integrado foi proposto e será aplicado na Fazenda Menga, como um dos projetos pioneiros em Angola.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nesta dissertação foi desenvolvido o sistema SAQUA (Sistema para Análise da Qualidade das Águas Fluviais), que permite o acompanhamento dos dados de séries históricas de parâmetros físico-químicos para análise da qualidade de águas fluviais. A alimentação do sistema SAQUA se dá a partir do arquivo tipo texto gerado no Hidroweb, sistema de banco de dados hidrológicos da ANA (Agência Nacional de Águas), disponibilizado na internet. O SAQUA constitui uma interface que permite a análise espaço-temporal de parâmetros de qualidade da água específicos definidos pelo usuário. A interface foi construída utilizando o servidor de mapas Mapserver, as linguagens HTML e PHP, além de consultas SQL e o uso do servidor Web Apache. A utilização de uma linguagem dinâmica como o PHP permitiu usar recursos internos do Mapserver por meio de funções que interagem de forma mais flexível com códigos presentes e futuros, além de interagir com o código HTML. O Sistema apresenta como resultado a representação gráfica da série histórica por parâmetro e, em mapa, a localização das estações em análise também definidas pelo usuário, geralmente associadas a uma determinada região hidrográfica. Tanto na representação gráfica da série temporal quanto em mapa, são destacados a partir de código de cores a estação de monitoramento e a observação em que os limites estabelecidos na resolução CONAMA 357/05 não foi atendido. A classe de uso da resolução CONAMA que será usada na análise também pode ser definida pelo usuário. Como caso de estudo e demonstração das funções do SAQUA foi escolhida a bacia hidrográfica do rio Paraíba do Sul, localizada na região hidrográfica Atlântico Sudeste do Brasil. A aplicação do sistema demonstrou ótimos resultados e o potencial da ferramenta computacional como apoio ao planejamento e à gestão dos recursos hídricos. Ressalta-se ainda, que todo o sistema foi desenvolvido a partir de softwares disponibilizados segundo a licença GPL de software livre, ou seja, sem custo na aquisição de licenças, demonstrando o potencial da aplicação destas ferramentas no campo dos recursos hídricos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No Brasil, o início do processo de convergência às normas internacionais de contabilidade no setor público ocorre desde 2007 na União, nos Estados e nos Municípios, o que acaba gerando muitas mudanças e também muitos desafios na adoção dos novos procedimentos. Um dos novos procedimentos envolve a avaliação e depreciação do Ativo Imobilizado. Nota técnica divulgada recentemente pela STN descreve que os Entes estão encontrando dificuldades em adotar as novas regras. Nesse contexto, este estudo se propõe a responder a seguinte questão de pesquisa: como superar os desafios na implantação dos procedimentos contábeis sobre avaliação e depreciação do Ativo Imobilizado no Governo do Estado do Rio de Janeiro? Tem como objetivo geral identificar os desafios na implantação dos procedimentos contábeis sobre avaliação e depreciação do Ativo Imobilizado no Governo do Estado do Rio de Janeiro e como objetivo específico investigar e analisar a estrutura contábil e patrimonial, assim como propor soluções básicas e essenciais para a aplicação dos procedimentos contábeis. Quanto aos fins, foi realizada pesquisa descritiva e quanto aos meios, foi realizada pesquisa bibliográfica, documental e o estudo de caso, com a realização de entrevistas com os responsáveis de patrimônio e almoxarifado de 23 órgãos da Administração Direta do Estado do Rio de Janeiro. A análise dos dados coletados revela que não há integração entre o setor contábil, o setor de patrimônio e o setor de almoxarifado nestes órgãos. Os setores possuem baixo quantitativo de funcionários e estes são pouco valorizados, não existindo padronização dos procedimentos sobre gestão patrimonial. O desafio de adotar esses procedimentos ultrapassa a competência do setor de contabilidade e exige a integração dos setores de patrimônio, almoxarifado e contábil. Assim, o estudo propõe a aquisição ou desenvolvimento de um sistema integrado de controle de bens, em que a contabilidade, o patrimônio e o almoxarifado acessem os mesmos dados e possuam uma ferramenta de comunicação confiável, que possibilite a elaboração de relatórios que gerem informações úteis ao gestor e aos demais interessados. Propõe também a regulamentação dos novos procedimentos, o fortalecimento da carreira dos funcionários que atuam no patrimônio e no almoxarifado e orienta sobre a adoção de procedimentos iniciais, para o período de transição.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A história dos Censos no Brasil mostra que a preocupação com a componente territorial em levantamentos estatísticos, surgiu no recenseamento de 1940, quando, pela primeira vez, o IBGE procurou retratar aspectos da realidade geográfica, de interesse para a operação de coleta, em bases cartográficas, uma tarefa complexa devido à grande extensão do território brasileiro e principalmente no que se refere à qualidade do material cartográfico disponível à época. Atualmente crescem as demandas em nosso país, por informações cada vez mais detalhadas e geograficamente posicionadas. Governadores e prefeitos, órgãos de planejamento municipais e estaduais, investidos de maior autonomia e de novas responsabilidades após a Constituição de 1988, dependem hoje como nunca dos censos para definirem suas políticas públicas, com base em informações atualizadas sobre a população sob suas jurisdições. Entretanto, as demandas por informações agregadas à posição também vêm de outras esferas, que vão do setor não-governamental e privado ao governo federal, fazendo com que muito aumentasse a relevância dos censos e por conseqüência os resultados das pesquisas. Para atender a grande demanda, o IBGE vem continuamente aperfeiçoando o que denominamos de Base Territorial, que é um sistema integrado de informações de natureza geográfica e alfanumérica e se constitui no principal requisito para a garantia da adequada cobertura das operações de levantamento censitário. Face a este novo cenário, o IBGE iniciou a elaboração de mapas da base territorial em meio digital, durante as ações preparatórias para o Censo 2000, se deparando com as dificuldades de integração das áreas urbanas e rurais e a baixa qualidade dos insumos de mapeamento em escala cadastral, disponível nas áreas menos desenvolvidas, pois a Instituição não é produtora de mapeamento em escala cadastral. A metodologia proposta visa melhorar a qualidade dos Mapas de Setores Urbanos MSU, com a utilização de imagens Google Earth, a partir software MicroStation 95, periféricos e aplicativos de conversão disponíveis no IBGE, com o estabelecimento de uma nova rotina de trabalho para produção e substituição dos mapas de setores urbanos, de forma a garantir uma maior representatividade territorial dos dados estatísticos para divulgação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sistemas Multiagentes estão recebendo cada vez mais a atenção de pesquisadores e desenvolvedores de jogos virtuais. O uso de agentes permite controlar o desempenho do usuário, adaptando a interface e alterando automaticamente o nível de dificuldade das tarefas. Este trabalho descreve uma estratégia de integração de sistemas multiagentes e ambientes virtuais tridimensionais e exemplifica a viabilidade dessa integração através do desenvolvimento de um jogo com características de Serious game. Este jogo visa estimular as funções cognitivas, tais como atenção e memória e é voltado para pessoas portadoras de diferentes distúrbios neuropsiquiátricos. A construção do jogo foi apoiada em um processo de desenvolvimento composto por várias etapas: estudos teóricos sobre as áreas envolvidas, estudo de tecnologias capazes de apoiar essa integração, levantamento de requisitos com especialistas, implementação e avaliação com especialistas. O produto final foi avaliado por especialistas da área médica, que consideraram os resultados como positivos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho objetivou traçar um percurso analítico da base institucional e material da gestão da arborização na cidade do Rio de Janeiro, visando a adoção de procedimentos para a quantificação do carbono armazenado nas árvores na malha urbana para possibilitar o conhecimento sobre o arboreto e o estabelecimento de objetivos quantificáveis, reportáveis e verificáveis de redução de emissões de gases de efeito estufa. Com a instituição da obrigatoriedade em nível nacional da metas de redução das emissões de gases de efeito estufa, através da Lei n 12.187/09, o município do Rio de Janeiro oficializou legalmente, com a Lei Muncipal n 5.248/11, o compromisso de adoção de medidas e programas de incentivo para reduzir as emissões de gases de efeito estufa na cidade. Entretanto, a única ação de mitigação controlada pelo município, com procedimentos regulamentados, é a compensação de emissões nas construções através do plantio de árvores. O acompanhamento da execução dos plantios de árvores, exigidos no licenciamento das construções é a atual forma de estabelecer objetivos quantificáveis, reportáveis e verificáveis de redução de emissões antrópicas de gases de efeito estufa no Município. De forma específica, foi realizada uma análise dos recursos institucionais e materiais disponíveis e potenciais à disposição do sistema de planejamento e gestão ambiental do município, com a proposição de criar um sistema de banco de dados (SGBD) da arborização urbana. O banco de dados estruturado ao longo da pesquisa, foi utilizado em um sistema de informação geográfico (SIG), onde foi possível realizar um estudo exploratório da estimativa de estoque de carbono em árvores em logradouros. A investigação desta pesquisa teve dupla expectativa: contribuir para a eficácia das ações de manejo e controle do arboreto urbano, com base no monitoramento contínuo dos serviços ambientais das árvores; e consolidar critérios analíticos habilitados para quantificar as alterações de fitomassa do arboreto urbano, em uma proposta de um plano de arborização para a cidade, até agora inexistente, que foi delineado ao final do trabalho, que seguramente irá garantir significativos benefícios ambientais, econômicos e sociais à sociedade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O potencial eólico do Brasil, de vento firme e com viabilidade econômica de aproveitamento, é de 143 GW. Isso equivale ao dobro de toda a capacidade da geração já instalada no país. No Brasil, a energia eólica tem uma sazonalidade complementar à energia hidrelétrica, porque os períodos de melhor condição de vento coincidem com os de menor capacidade dos reservatórios. O projeto desenvolvido neste trabalho nasceu de uma chamada pública do FINEP, e sob os auspícios do recém criado CEPER. Ao projeto foi incorporado um caráter investigativo, de contribuição científica original, resultando em um produto de tecnologia inovadora para aerogeradores de baixa potência. Dentre os objetivos do projeto, destacamos a avaliação experimental de turbinas eólicas de 5000 W de potência. Mais especificamente, dentro do objetivo geral deste projeto estão incluídas análise estrutural, análise aerodinâmica e análise de viabilidade de novos materiais a serem empregados. Para cada uma das diferentes áreas de conhecimento que compõem o projeto, será adotada a metodologia mais adequada. Para a Análise aerodinâmica foi realizada uma simulação numérica preliminar seguida de ensaios experimentais em túnel de vento. A descrição dos procedimentos adotados é apresentada no Capítulo 3. O Capítulo 4 é dedicado aos testes elétricos. Nesta etapa, foi desenvolvido um banco de testes para obtenção das características específicas das máquinas-base, como curvas de potência, rendimento elétrico, análise e perdas mecânicas e elétricas, e aquecimento. Este capítulo termina com a análise crítica dos valores obtidos. Foram realizados testes de campo de todo o conjunto montado. Atualmente, o aerogerador de 5kW encontra-se em operação, instrumentado e equipado com sistema de aquisição de dados para consolidação dos testes de confiabilidade. Os testes de campo estão ocorrendo na cidade de Campos, RJ, e abrangeram as seguintes dimensões de análise; testes de eficiência para determinação da curva de potência, níveis de ruído e atuação de dispositivos de segurança. Os resultados esperados pelo projeto foram atingidos, consolidando o projeto de um aerogerador de 5000W.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente dissertação objetiva a verificação do desempenho dos ensaios do tipo CRS, com velocidade controlada, quando comparados aos ensaios de adensamento oedométricos convencionais, SIC. O ensaio SIC é executado em vários estágios de carga, cada qual com vinte e quatro horas de duração e razão unitária entre o incremento de tensão e a tensão anterior, requerendo um prazo total de cerca de 10 dias para sua execução. Já o ensaio de adensamento com velocidade controlada, CRS, tem sua duração bastante reduzida, o que levou diversos pesquisadores da área de Geotecnia a concentrarem esforços no estudo de seu desempenho, visando sua utilização mais ampla. Para este estudo foi adquirido equipamento da empresa Hogentogler Inc., designado por GeoStar. Sua instalação, montagem e calibração foram realizadas no Laboratório de Mecânica dos Solos. Foram executados ensaios em corpos de prova obtidos de amostras de caulim, preparadas em laboratório, e também em amostras de solos originários de dois depósitos de diferentes regiões no Estado do Rio de Janeiro: baixada de Jacarepaguá e Itaboraí. A dissertação procurou detalhar a execução dos ensaios, as dificuldades da interpretação das planilhas originadas pelo sistema de aquisição de dados, acoplado ao equipamento GeoStar, as mudanças efetuadas, as ocorrências não previstas, a análise e interpretação dos resultados e a comparação dos parâmetros obtidos com os ensaios SIC e CRS. Procurou-se estudar o efeito da velocidade de deformação, histórico de tensões, qualidade dos corpos de prova, parâmetros do ensaio, facilidade de execução e desempenho. Verificou-se a simplicidade, rapidez e o desempenho satisfatório do ensaio CRS. Sugere-se estender estudos semelhantes a outros locais e, principalmente, a amostras de qualidade superior, na expectativa de confirmar as conclusões detalhadas nesta pesquisa.