28 resultados para Classes de capacidade de uso


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo do presente estudo foi avaliar, através de Microscopia Eletrônica de Varredura (MEV), a capacidade de remoção da lama dentinária nas regiões cervical, média e apical do canal radicular após a utilização das soluções de EDTA dissódico, trissódico e tetrassódico a 17% e do gel de EDTA a 24% durante a preparação do canal radicular. A amostra consistiu em 100 dentes humanos, monorradiculares, extraídos, aleatoriamente divididos em cinco grupos. Nos grupos experimentais foram utilizados soluções de EDTA dissódico, trissódico e tetrassódico a 17 % e gel de EDTA trissódico a 24%. No grupo controle foi utilizado água destilada. Cada dente foi dividido longitudinalmente e analisado no MEV. As paredes dos canais radiculares foram examinadas nas regiões cervical, média e apical quanto à remoção da lama dentinária, presença de detritos e abertura dos túbulos dentinários. Durante este processo, foram realizadas fotomicrografias com aumento de 2000 vezes. O sistema de classificação utilizado na análise foi: 0 – ausência de lama dentinária, túbulos dentinários abertos e livres de detritos; 1 – lama dentinária moderada, contorno dos túbulos visíveis ou parcialmente preenchidos por detritos; 2 – abundante lama dentinária, sem distinção do contorno dos túbulos. Para a análise estatística foram utilizados os testes não paramétricos de Friedman e Kruskall-Wallis. Os resultados mostraram diferença estatística entre os grupos teste e controle (p=0,01). No entanto, quando comparados entre si, os grupos teste não apresentaram diferença significativa. Foi verificado na comparação entre as regiões cervical, média e apical diferença estatística no grupo que foi utilizado EDTA gel (p=0,01). Neste grupo foi observado que a eficácia de remoção da lama dentinária foi menor na região apical do que nas regiões cervical e média, que não apresentaram diferenças entre si. A maior presença de lama dentinária na região apical foi confirmada ao se reunir todos os grupos em que se utilizou EDTA e comprovar que a região apical apresentava significativamente mais lama dentinária do que as regiões cervical e média (p=0,01). Dessa forma pode-se concluir que as soluções de EDTA dissódico, trissódico e tetrassódico a 17% e o gel de EDTA trissódico a 24% foram eficientes na remoção da lama dentinária e que a região apical do canal radicular apresentou maior presença de lama dentinária do que as regiões cervical e média.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A competição entre as empresas pela busca de mercado tem levado ao aprimoramento de suas atividades e melhorias em seus processos produtivos. Este trabalho apresenta a análise do processo produtivo de uma empresa produtora de embalagens de papelão ondulado através da técnica da simulação computacional. O simulador ProModel foi utilizado no desenvolvimento do estudo e se mostrou adequado para a modelagem do processo produtivo e geração de resultados. Com a sua capacidade de animação, criação de macros e geração de relatórios, ficou facilitado o desenvolvimento e analise de cenários. Isto permitiu que o foco do estudo ficasse sobre a análise dos resultados e simulação de cenários e não na programação para criação e rodagem do modelo de simulação. A partir da modelagem do processo real de trabalho foi possível identificar restrições de capacidades no sistema, o que levou à criação de cenários onde oportunidades de melhoria pudessem ser avaliadas. A revelação de que a parcial utilização do equipamento denominado Onduladeira, o qual gerava perdas por ociosidade nas impressoras, acabou se mostrando como o gargalo do processo produtivo é o mais indicado ponto de melhoria. Com o incremento de produtividade sobre este equipamento, definido a partir de análises dos cenários, obteve-se como resultado a utilização de 100% dos demais equipamentos do processo produtivo. Análises e comparações de resultados entre os cenários e as conclusões do estudo são apresentadas no final do trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O conhecimento organizacional vem se convertendo em um dos principais tópicos de interesse dos gestores, uma vez que as organizações passam a compreendê-lo como seu principal recurso e fonte de vantagem competitiva. Assim, a gestão de conhecimento procura identificar e desenvolver o conhecimento coletivo da organização para aumentar a capacidade de inovação e resposta e ajudá-la a competir. Considera-se que o sucesso da gestão de conhecimento depende mais das pessoas do que da tecnologia empregada, ao mesmo tempo em que se reconhece que a disponibilidade de novas tecnologias de informação tem proporcionado grande impulso a estas iniciativas. Esta pesquisa objetiva compreender como a tecnologia de informação está sendo utilizada no suporte a estratégias de gestão de conhecimento em organizações fabricantes de software. Para isto, apresenta um estudo de caso com uma empresa desta área, que analisa o modelo de Hansen et al. de estratégias de gestão de conhecimento e explora algumas lacunas encontradas neste modelo. O resultado da pesquisa é sintetizado na fase final, que apresenta um esquema conceitual sugerindo adições ao modelo original.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho descreve estudos relativos à validação e aperfeiçoamento de uma nova técnica de adsorção em flocos de materiais adsorventes pulverizados e seu uso em reator de leito expandido/fluidizado. A técnica consiste na utilização de polímeros aquo-solúveis para a floculação de suspensões aquosas de materiais adsorventes pulverizados, baseando-se no baixo custo dos mesmos e no fato de que a capacidade de adsorção dos flocos resultantes não é afetada significativamente pelo polímero floculante. O uso da técnica em reator de leito expandido/fluidizado possibilita ainda a vantagem de união dos processos de adsorção e separação sólido-líquido em uma única etapa. Os estudos foram realizados a partir da floculação de carvão ativado e zeólita natural pulverizados, separados e em mistura, para a adsorção de fenol e nitrogênio amoniacal (separados e misturados). Foi realizada uma adequada caracterização dos materiais particulados, incluindo a determinação de distribuição granulométrica, área superficial específica, potencial zeta, dentre outros. Estudos em escala de bancada foram realizados com ambos os poluentes e materiais adsorventes a fim de obter parâmetros de processo (capacidade de adsorção, cinética e concentração de floculante). Estudos em escala semipiloto com um reator de leito expandido/fluidizado de geometria cilíndrico-cônica foram realizados para estudar a adsorção dos poluentes em leito de flocos dos materiais adsorventes (separados e misturados), assim como a regeneração/reciclo do mesmo. A caracterização dos materiais apresentou propriedades semelhantes para ambos (distribuição granulométrica, potencial zeta) e outras distintas para cada um deles (massa específica, área superficial específica) A capacidade de troca catiônica da zeólita natural foi determinada em 1,02 meq NH4 +.g-1 (após homoionização com NaCl). Este material, proveniente do Chile, mostrou um significativo potencial de aplicação como adsorvente de corantes (como o azul de metileno) e, principalmente, de nitrogênio amoniacal. O floculante utilizado na geração dos flocos adsorventes, separados e misturados, foi do tipo poliacrilamida catiônica e sua concentração ótima foi de 4 e 5 mg.g-1, respectivamente. Os resultados obtidos nos estudos em escala de bancada (batelada) mostraram elevada cinética (valor médio de 0,3 min-1) e alta capacidade (valor médio de 13,4 mg NH3-N.g-1) em pH neutro (aproximadamente 6) para a adsorção de nitrogênio amoniacal em zeólita natural pulverizada e floculada. No caso da adsorção de fenol em carvão ativado pulverizado e floculado, foram obtidas uma alta cinética (valor médio de 0,8 min-1) e elevada capacidade (156 mg.g-1). Os dados cinéticos e de equilíbrio foram adequadamente descritos por um modelo cinético para reações reversíveis de primeira ordem e pelas isotermas de Langmuir e Freundlich, respectivamente. Tanto a cinética quanto a capacidade de adsorção não mostraram-se afetadas de forma significativa pelo uso do polímero floculante, sendo observada uma ausência de sinergismo na adsorção dos poluentes devido à mistura dos dois materiais adsorventes, tanto pulverizados quanto floculados. Os resultados obtidos nos estudos em escala semipiloto validaram a utilização de flocos de zeólita natural e carvão ativado pulverizados (não- misturados) em reator de leito expandido/fluidizado na adsorção de nitrogênio amoniacal (11 mg NH3-N.g-1) e fenol (132 mg.g-1), respectivamente, dentro das condições experimentais estabelecidas (taxas de aplicação de 38 e 19 m.h-1, respectivamente) A regeneração/reciclo do leito saturado de flocos mostrou-se viável para o caso da adsorção de nitrogênio amoniacal em zeólita natural, sendo insatisfatória para o leito de carvão ativado saturado em fenol. O uso de leitos mistos mostrou-se eficaz e com vantagens tais como a adsorção de múltiplos poluentes em uma única etapa e a possibilidade de aumento da taxa de aplicação no uso de materiais adsorventes menos densos (carvão ativado) misturados com materiais adsorventes de maior massa específica (zeólita natural). Uma pré-avaliação dos custos operacionais envolvidos na técnica para uso em reator de leito expandido/fluidizado foi realizada, sendo estimados entre 0,32 e 1,48 US$.m-3 (volume de solução sintética de poluente tratada até o ponto de exaustão do leito). Finalmente, são discutidas as potencialidades, vantagens/desvantagens e a viabilidade da nova técnica como processo físico-químico alternativo de adsorção em materiais adsorventes pulverizados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O desenvolvimento de novos, e mais eficientes, métodos de classificação de imagem digitais em Sensoriamento Remoto se constitui em uma importante área que tem chamado a atenção de muitos pesquisadores. Nesta área em particular, um problema que freqüentemente surge para a classificação de imagens digitais provenientes de cenas naturais, é a ocorrência de classes espectrais com resposta espectral muito similar. Nestes casos, os sistemas sensores mais comuns e os métodos tradicionais de classificação de imagem apresentam muito baixa precisão ou mesmo falham completamente. Várias abordagens vem sendo propostas na literatura. Uma das possíveis abordagens consiste em fazer uso de informações auxiliares que possuam poder discriminante para as classes sob análise. Esta é a possibilidade explorada nesta dissertação, utilizar-se de dados auxiliares, provenientes de fontes diversas, tais como: temperatura, precipitação, altitude e classes de solo. Estes dados são então combinados com dados provenientes de imagens multiespectrais de acordo com a Teoria de Evidência proposta por Dempster e Shafer. Esta abordagem é testada usando dados de uma área no Estado do Rio Grande do Sul, Brasil, com a finalidade de delimitar a ocorrência da Mata Nativa com Araucária (composta pela conifera Araucaria angustifolia), que é de difícil separação em relação a outras classes espectrais que ocorrem na região, tornando difícil o processo preciso de classificação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem como objetivo o levantamento e análise de fatores intervenientes na capacidade de processamento de veículos em cabines de praças de pedágio com o recolhimento manual de tarifas. Buscando o entendimento de como estes fatores interferem nos tempos de atendimento nas cabines foi realizada uma análise estatística e posterior modelagem, que utilizou redes neurais artificiais. Redes neurais artificiais são úteis no entendimento de problemas com alto grau de complexidade, que agregam diversas variáveis de entrada com relações não-lineares entre si. As variáveis de entrada escolhidas para a modelagem foram forma de pagamento, intensidade de fluxo, valor das tarifas e classes de veículos. A variável de saída foi o tempo de atendimento nas cabines de cobrança de pedágios. Foram obtidos três modelos que buscaram refletir a variação dos tempos de atendimento para um mesmo conjunto de dados de entrada: Modelo de Tempos Mínimos de Atendimento; Modelo de 85° Percentil de Tempos de Atendimento, e; Modelo de Tempos Máximos de Atendimento. As análises de sensibilidade dos modelos indicaram que tempos de atendimento são fortemente influenciados pelo fluxo de veículos nas praças. Quanto mais intenso o fluxo de veículos, tempos mínimos de atendimento tendem a sofrer leve aumento, indicando pequena perda de rendimento do processo. Perda de rendimento pode ser resultado de (i) necessidade de digitação das placas de licença dos veículos no sistema operacional das praças-dificuldade de visualização das mesmas em situação de filas, e (ii) desgaste físico dos arrecadadores. O desgaste físico dos arrecadadores também se apresenta como provável causa para o aumento de tempos mínimos de atendimento para fluxos altos. Quanto mais intenso o fluxo de veículos, menores são os tempos máximos de atendimento. Quanto maior o fluxo de veículos nas praças, as modelagens indicam uma maior estabilidade do sistema com relação ao processamento de veículos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os objetivos gerais desta tese foram a otimização do processo de congelamento do camarão, e a avaliação do efeito da adição do fosfato que pode afetar o rendimento e a qualidade do produto, conforme percebido pelo consumidor final. Inicialmente, foi feito um levantamento da capacidade tecnológica das empresas de pescado do Brasil. A seguir, foi feita uma revisão da literatura, buscando entender as variáveis que afetam o processo de congelamento do pescado, particularmente as questões associadas ao uso do fosfato no processamento do camarão. Após a revisão da literatura, foi elaborado um planejamento experimental, onde foi possível obter dados referentes ao rendimento (evolução do peso do produto) em cada etapa estudada: imersão em soluções de fosfato, congelamento, descongelamento e cocção. Os melhores rendimentos foram obtidos pelo congelamento com N2 líquido e com o uso de fosfato. A partir desses resultados preliminares, encontrou-se o ajuste ótimo dos fatores analisados e, a partir dele, foram executados novos ensaios para a validação das previsões de rendimento e complementação do estudo através de análises químicas e sensoriais. O uso de fosfato mostrou-se eficaz na retenção de água no descongelamento e após a cocção. Observou-se menor perda de peso no descongelamento do camarão tratado com blend de fosfato (-1,87 %) quando comparado com o Tripolifosfato de sódio – TPF (-2,86%) e controle (imersão em água, -15,5%) O mesmo foi verificado após a cocção: Blend (-7,61%), TPF (-9,05%) e controle (-25,3%). Esses rendimentos foram comprovados com a diminuição da perda de exsudado (drip loss) no descongelamento e após a cocção, o aumento do teor de umidade após a imersão em fosfato e a sua retenção após o descongelamento e cocção. Os níveis residuais de fosfato (TPF e blend) estavam abaixo do limite 0,5% estabelecido pela legislação internacional. Os resultados da análise sensorial demonstraram que o camarão tratado com fosfato reteve os atributos sensoriais, contribuindo, assim, para a maior preferência e aceitação pelos julgadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As alternativas terapêuticas, atualmente oferecidas para o tratamento da cardiopatia isquêmica, concentram-se na abordagem das propriedades da vasculatura coronariana e seus elementos circulatórios. Dentre essas, incluem-se drogas que inibem o desenvolvimento da aterosclerose, estabilizam as lesões pré-existentes, drogas que reduzem a trombose intracoronaria, diminuem o consumo de oxigênio pelo miocárdio e intervenções que restabelecem o fluxo coronariano. No entanto, esse arsenal terapêutico se torna deficiente, em relação aos agentes cardioprotetores diretos, que têm como alvo o metabolismo das células miocárdicas. Novas terapias têm sido propostas, para diminuir a repercussão celular da isquemia, protegendo as células miocárdica das conseqüências prejudiciais do fenômeno da reperfusão, ou lesão de reperfusão, desencadeada principalmente pela ativação da glicoproteina trocadora de Na+/H+ (NHE). Essa glicoproteína tem como principal função manter a estabilidade do pH das células miocárdicas durante a isquemia, podendo de forma paradoxal precipitar necrose celular durante a reperfusão, através do acúmulo de cálcio intracelular. Dos agentes cardioprotetores com capacidade de inibir a NHE, a amilorida foi a primeira droga que mostrou essa propriedade. Recentemente, outras mais potentes surgiram, como cariporide, eniporide e zoniporide, atualmente sendo avaliadas através de ensaios clínicos. Nesta revisão, analisaremos os mecanismos envolvidos na lesão de reperfusão a nível celular e a participação da inibição NHE na proteção miocárdica. Também, revisaremos os principais estudos clínicos envolvendo os inibidores da NHE-1 e sua aplicabilidade potencial.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tecnologia de rede dominante em ambientes locais é ethernet. Sua ampla utilização e o aumento crescente nos requisitos impostos pelas aplicações são as principais razões para a evolução constante presenciada desde o surgimento deste tipo de rede simples e barata. Na busca por maior desempenho, configurações baseadas na disputa por um meio de transmissão compartilhado foram substituídas por topologias organizadas ao redor de switches e micro-segmentadas, ou seja, com canais de transmissão individuais para cada estação. Neste mesmo sentido, destacam-se os dispositivos de qualidade de serviço padronizados a partir de 1998, que permitem a diferenciação de tráfego prioritário. O uso desta tecnologia em ambientes de automação sempre foi refreado devido à imprevisibilidade do protocolo CSMA/CD. Entretanto, o uso de switched ethernet em conjunto com a priorização de tráfego representa um cenário bastante promissor para estas aplicações, pois ataca as duas fontes principais de indeterminismo: colisões e enfileiramento. Este trabalho procura avaliar esta estrutura em ambientes de controle distribuído, através de uma análise temporal determinística. Como resultado, propõe-se um modelo analítico de cálculo capaz de prever os valores máximos, médios e mínimos do atraso fim-a-fim observado nas comunicações de diferentes classes de tráfego. Durante a análise, outras métricas relevantes são investigadas como a variação no atraso (jitter) e a interferência entre classes de prioridades distintas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O planejamento dos recursos hídricos é uma tarefa complexa pois trata diretamente dos interesses de diversos setores da sociedade e gera freqüentemente conflitos pelo uso. Em se tratando de bacias hidrográficas esta relação de interesses se mostra bastante latente pois verifica-se toda a sorte de atividades humanas que se distribuem no espaço, ao mesmo tempo em que se observa o declínio dos recursos ambientais. Assim sendo torna-se evidente a necessidade de se compreender as inter-relações entre as forças que estimulam o processo produtivo na bacia hidrográfica. A tarefa exige um estudo mais amplo da bacia, no qual se considere as relações entre as diversas ações empreendidas pelo homem nesta unidade do espaço geográfico. Neste sentido a alteração do uso do solo se apresenta como um indicador das principais forças que promovem o desenvolvimento de uma região. Compreender como se dá este processo e capturar o padrão de evolução destas atividades no espaço da bacia significa, dentro do contexto dos recursos hídricos, possibilitar um melhor planejamento e gerenciamento das águas, tanto no aspecto qualitativo quanto quantitativo. Esta dissertação discute uma metodologia para simular o padrão de alteração de classes de uso do solo em uma bacia hidrográfica de médio porte. Para isso foram utilizadas técnicas de geoprocessamento, sensoriamento remoto e modelagem matemática. Foram considerados agentes motivadores da alteração do uso do solo a declividade do terreno e as distâncias das rodovias, dos centros urbanos e dos cursos d’água. Os resultados obtidos mostraram que a bacia de estudo avança no sentido de uma ação de degradação cada vez mais intensa em algumas regiões, caracterizada pela ocupação de áreas nativas e pela provável remoção da mata ciliar ao longo dos cursos d’água. Observou-se também que existe uma inércia maior com relação às alterações justamente nas regiões mais afastadas do centro urbano e das rodovias federais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A região de estudo está localizada na porção nordeste do Estado de Roraima, na região do Médio e Alto Rio Surumu, entre as coordenadas 3º 58’ – 4º 27’ N e 60º 13’ – 61º 16’ W e inserida em uma paisagem dominada por formações de savanas. Um total de 95 espécimens de pequenos mamíferos terrestres foram capturados, divididos entre 6 espécies (Monodelphis brevicaudata (Didelphimorphia), Oligoryzomys sp., Sigmodon alstoni, Rhipidomys nitela, Proechimys cf guyannensis e Zygodontomys brevicauda (Rodentia, Sigmodontinae), através de um esforço de 9.479 armadilhas/dia sendo o sucesso de capturas de 1%. As estações de captura positivas, e parte das estações com ausência de captura, foram descritas considerando variáveis quantitativas e qualitativas. As probabilidades de ocorrência das espécies em conjunto e de Z. brevicauda, separadamente, foram calculadas via Regressão Logística utilizando as características estruturais dos hábitats. Um mapa de vegetação foi gerado a partir de imagem de satélite LANDSAT-TM, onde 14 classes de cobertura vegetal foram identificadas. As probabilidades foram associadas às diferentes classes e permitiram a espacialização da distribuição potencial das espécies considerando o mosaico de hábitats da região As espécies, quando vistas em conjunto, evidenciaram restrições de uso das formações fechadas tais como as zonas internas das Matas Ciliares. As zonas de transição entre as formações arbóreas e as formações abertas de savana apresentaram alta probabilidade de ocorrência de pequenos mamíferos. Z. brevicauda, uma espécie reconhecida como um elemento característico das formações abertas, apresentou restrições de ocorrência em grande parte da sua extensão. Os modelos de distribuição potencial para Z. brevicauda destacam apenas os hábitats de borda como as classes com maior potencial de ocorrência.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.