88 resultados para Método de otimização de Luus-Jaakola


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A previsão do comportamento de resíduos constituiu-se em um desafio geotécnico, uma vez que estes materiais apresentam uma resposta distinta dos materiais usualmente encontrados em depósitos naturais. A análise dos recalques da fundação, decorrentes da sobrecarga imposta pelo alteamento, é complexa, tendo em vista que o adensamento de resíduos pressupõe grandes deformações, invalidando o uso de teorias clássicas de adensamento. Atualmente, no Brasil, a técnica de disposição de resíduos de bauxita prevê uma operação inicial de lançamento no interior de lagos artificiais, em forma de polpa. Após o esgotamento do lago e ressecamento do resíduo, inicia-se o lançamento pelo método a montante. Neste método, a polpa é lançada sobre o resíduo pré-existente, que se encontra em processo de adensamento. O presente trabalho tem como objetivo reproduzir numericamente o comportamento de áreas de resíduos durante a etapa de alteamento a montante. A pesquisa tem como enfoque 2 áreas de resíduos de bauxita. Uma delas encontra-se em fase de reabilitação e dispõe de instrumentação de campo (recalques e deslocamentos horizontais). A outra se encontra em fase de operação do alteamento e dispõe de dados experimentais. Desta forma, a metodologia consistiu na reprodução numérica do processo de alteamento da área instrumentada e comparação dos resultados com a instrumentação de campo, com objetivo de avaliar o modelo numérico e os parâmetros do resíduo. Posteriormente, realizou-se a previsão do comportamento do resíduo de fundação da área em fase de alteamento. Os parâmetros geotécnicos foram definidos a partir de um extenso programa de ensaios de campo e laboratório, executado no local em estudo, fazendo-se uso de um tratamento estatístico dos dados experimentais. Os resultados numéricos mostraram a potencialidade do programa na previsão do comportamento de áreas de resíduos durante o alteamento a montante, com previsões de recalques e deslocamentos horizontais coerentes com a instrumentação de campo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese apresenta um exame da lógica da negação ou ambiguidade essencial da consciência, como núcleo metodológico da filosofia de Gaston Bachelard. Seu ponto de partida é a consideração da filosofia do não reformulação do pensamento estruturada sobre a necessidade epistemológica de opor-se ao modo de conhecimento clássico como valorização da negatividade, da crítica e da contradição, novos vetores de progresso dos saberes estético e científico. O jogo de oposições assume nesta abordagem o papel de estímulo que impulsiona a expansão da consciência, ao ressaltar a lógica das contradições que, em tal modo, revela simultaneamente como fundamento da investigação bachelardiana a necessidade de abertura e valorização da imaginação criadora, em sua aptidão ao vislumbre de novas estratégias do saber. O primeiro capítulo aborda a atuação deste dinamismo de polaridades e ambivalências como estratégia de demonstração e crescimento do saber epistemológico de Bachelard; o segundo, realiza um percurso análogo no campo da poética, estudando imaginação e devaneio como fulcros de infinitas e fecundas contradições. O terceiro capítulo explora as possibilidades desta lógica das oposições, que põe em relevo a complementaridade entre ciência e arte, e possibilita a compreensão da obra bachelardiana como unidade essencial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação procura investigar o incremento da racionalidade regulatória (ou otimização regulatória) a partir da teoria das falhas de regulação. Hoje, já parece existir um consenso teórico e prático de que a regulação e seu aparato institucional as agências reguladoras constituem fenômeno irreversível. Nesse contexto, as perguntas que se colocam são as seguintes: no plano dos resultados, o Estado Regulador tem alcançado as finalidades a que se propôs? Em caso negativo, que tipo de obstáculos o tem impedido? E mais: que providências devem ser adotadas para superá-los? Responder a tais indagações depende do reconhecimento de que não apenas os mercados são imperfeitos; também a intervenção estatal na economia gera riscos e efeitos negativos. Estudar seus tipos, suas fontes e a maneira como operam é o ponto de partida para se otimizar a regulação. O trabalho propõe uma sistematização das espécies de falhas regulatórias, baseada na proposta de Cass Sunstein, mas adaptada à realidade brasileira. A exposição é precedida de explicações introdutórias sobre o conceito de regulação; as razões para se regular; e características da regulação no Estado Democrático de Direito. Tais características conformam um ideal de racionalidade regulatória, o qual é comprometido pela instauração das falhas de regulação. Reconhecer a existência dos defeitos regulatórios e conhecê-los é já um primeiro passo para se melhorar a regulação. Mas há outros encaminhamentos deveras importantes para a prevenção e correção de falhas regulatórias. Dentre eles, destaca-se um conjunto de reformas institucionais em sentido amplo e estrito, as quais envolvem o sistema de controle pelos Poderes Legislativo, Executivo e Judiciário, e mecanismos procedimentais como a análise de impacto regulatório e a elaboração de agendas regulatórias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é a aplicação de um Planejamento Fatorial Completo, ferramenta estatística que auxiliará a obter dados empíricos para otimizar um tratamento termoquímico, a cementação. Partindo-se de um levantamento da profundidade de camada cementada e da dureza de uma corrente de aço de baixo teor de carbono, usada para amarração, e para resistir à abrasão reproduziu-se uma nova cementação, variando-se seus parâmetros de influência, para se alcançar o ponto ótimo, definindo o melhor aço e o melhor processo. Foram realizados dois planejamentos, um fatorial 2 e dois 2, comparando o comportamento do processo na prática em relação aos resultados teóricos de uma simulação computacional, que permite a obtenção das curvas de enriquecimento de carbono, baseado na segunda Lei de Fick, para várias condições de contorno. Os perfis teóricos de cementação apresentaram valores de profundidade efetiva próximos aos valores obtidos experimentalmente, evidenciando o planejamento realizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um método de Matriz Resposta (MR) é descrito para gerar soluções numéricas livres de erros de truncamento espacial para problemas multigrupo de transporte de nêutrons com fonte fixa e em geometria unidimensional na formulação de ordenadas discretas (SN). Portanto, o método multigrupo MR com esquema iterativo de inversão nodal parcial (NBI) converge valores numéricos para os fluxos angulares nas fronteiras das regiões que coincidem com os valores da solução analítica das equações multigrupo SN, afora os erros de arredondamento da aritmética finita computacional. É também desenvolvido um esquema numérico de reconstrução espacial, que fornece a saída para os fluxos escalares de nêutrons em cada grupo de energia em um intervalo qualquer do domínio definido pelo usuário, com um passo de avanço também escolhido pelo usuário. Resultados numéricos são apresentados para ilustrar a precisão do presente método em cálculos de malha grossa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A implantação de sistemas de custos no setor público tem sido apontada como uma necessidade gerencial primordial para se alcançar as dimensões dos princípios da eficiência, eficácia e efetividade na administração pública, fato que proporcionaria a otimização do uso dos escassos recursos disponíveis. Com o advento da Lei de Responsabilidade Fiscal entrou em evidência a discussão sobre o tema no cenário nacional, sendo mais recentemente criada no governo federal uma comissão interministerial de custos com objetivo de elaborar estudos e propor diretrizes, métodos e procedimentos para subsidiar a implantação de Sistemas de Custos na Administração Pública Federal. Tendo em vistas essas necessidades, o presente trabalho tem por objetivo principal verificar a adequabilidade do Sistema Gerencial de Custos (SISCUSTOS) implantado no Exército Brasileiro permite a apuração de custos sob a ótica da teoria contábil e complementarmente analisar se o sistema de custos adequasse as metodologias do custeio ABC e fornece subsídios para a tomada de decisões. Para isso realizou-se um estudo de caso de natureza qualitativa, coletando-se dados de fontes primárias e secundárias, além de entrevistas com os servidores responsáveis pelo desenvolvimento, implantação e operacionalização do sistema. O resultado verificado foi que as funcionalidades disponibilizadas pelo SISCUSTOS vislumbram a aderência do sistema com o plano teórico, permitindo que as informações extraídas da contabilidade governamental contemporânea sejam ajustadas, para uma possível aproximação da contabilidade orçamentária com a contabilidade patrimonial, necessitando apenas de alguns ajustes para itens aqui denominados como peculiares da contabilidade governamental. No caso do método de custeio ABC observou-se que a metodologia está sendo subtilizada, e que o grau desejado em extrair todas as contribuições disponibilizadas pelo ABC somente virá com a maturidade da gestão de custos, sendo que, para atingir tais objetivos haverá a necessidade de se fixar como atributos cognitivos os 4C - Cultura de Custos, Comprometimento, Competição e Confiabilidade - entre os usuários do sistema e a alta administração.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A abrangente constitucionalização, o acesso ao direito, ainda que incipiente, no Brasil, o dinamismo de uma sociedade massificada e o fluxo quase instantâneo de informações e de ideias colocaram e vem colocando em xeque o Estado enquanto provedor dos direitos básicos e, dentre eles, o acesso à justiça e a correlata função jurisdicional. Autorizado magistério doutrinário vislumbrou, como se verá, apresentar o sistema brasileiro, no que concerne à estabilização da relação processual, em específico, mais desvantagens do que vantagens. Entreviu-se, assim, oportunidade de uma revisitação do sistema processual, aproveitando-se a legislação e ideário vigentes, em uma perspectiva mais profícua e no intuito de se conferir tudo aquilo e exatamente aquilo que se busca pelo processo, enfim, maior probabilidade de pacificação. Assim, o propósito da presente dissertação é estudar o aproveitamento da demanda quanto aos fatos dedutíveis pelas partes e que advenham ou sejam conhecidos no curso do processo como meio, então, de concretização do processo justo, um processo balizado por garantias, um processo humanizado e conforme os reclamos da sociedade hodierna. A pesquisa se concentra na legislação, doutrina e jurisprudência brasileiras, contando, outrossim, com singelo exame de ordenamentos similares. Em paralelo, estudam-se os princípios que suportam o tema, notadamente o princípio do contraditório participativo, qualificado que é pela ampla participação dos sujeitos da crise de direito material. O trabalho procura demonstrar, enfim, que é viável a proposta no contexto de um Direito Processual afinado com os ditames constitucionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do trabalho foi identificar ferramentas e indicadores adequados ao monitoramento e à otimização de processos de biorremediação, incluindo parâmetros físicos, químicos e microbiológicos definidos em estudos de tratabilidade de solos contaminados por óleo cru em escala de laboratório e comparar estratégias de biorremediação, tais como bioestímulo e bioaumento conduzidas em simulações de biopilhas dinâmicas ou estáticas. Quando três métodos de extração de hidrocarbonetos de petróleo de solo arenoso e franco-argiloso para análise cromatográfica (Soxhlet-SOX, microondas-MARS e extração acelerada por solvente-ASE) foram comparados entre si, concluiu-se que a técnica que promove a melhor recuperação depende da fração de interesse (n-alcanos, HRP, MCNR, HPA), das características texturais do solo (teores de areia, silte e argila) e da idade da contaminação. Dentre os indicadores de densidade populacional microbiana (microrganismos heterotróficos totais-PHT, população de fungos-PF e população microbiana degradadora de óleo (PDO) passíveis de utilização para indicar a taxa de degradação de compostos orgânicos presentes no solo tais como os hidrocarbonetos de petróleo, o PDO mostrou-se o mais adequado em conjunto com a produção de CO2 aferida pelo método respirométrico. Quando a estratégia de biorremediação de solo franco-argiloso contaminado com óleo cru a 3% (m m-1) utilizando bioestímulo (ajuste de pH, umidade e taxa C:N:P) foi comparada ao bioaumento (bioestímulo e adição de inóculo de microrganismos extraídos, enriquecidos e aclimatizados ao óleo cru como fonte de carbono), em sistemas de bancada simulando biopilha dinâmica (microcosmo M) e biopilha estática com aeração forçada (reator B), o tratamento que apresentou melhor remoção (32%) de HTP após 121 dias foi o bioaumento em biopilha estática. Para HPA, o tratamento que alcançou a melhor remoção (33%) foi com bioestímulo também em biopilha estática. A avaliação da taxa de mortalidade (%) de Eisenia andrei exposta tanto a solos recém-contaminados por óleo cru e preparados para bioestímulo (BIOS) e bioaumento (BIOA) a serem tratados em biopilhas dinâmicas e estáticas em escala de laboratório mostrou que após 56 dias de exposição da E. andrei, todos os solos produziram letalidade de 100%, quer fossem os solos recém-contaminados e preparados para os diferentes tratamentos (BIOS M, BIOS B, BIOA M, BIOA B) ou após 121 dias de tratamento. Tal resultado confirma que a biorremediação foi incipiente também do ponto de vista de remoção da ecotoxicidade. Em linhas gerais, a biorremediação de solo franco-argiloso contaminado por óleo cru, contendo tanto contaminação antiga quanto recente, reúne os maiores desafios à biorremediação, tanto do ponto de vista da composição textural do solo quanto da natureza do contaminante. Os processos são aparentemente lentos e requerem ferramentas auxiliares para aceleração dos mesmos. Recomenda-se no futuro, condução de experimentos com o uso de diferentes surfactantes, com ênfase em biosurfactantes

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A liofilização - ou secagem a frio (freeze drying em inglês) - é um complexo processo multiestágios, onde o produto é primeiramente congelado e sua secagem feita através de sublimação. Devido a esta forma de secagem a liofilização se torna um processo atrativo particularmente importante para a estabilização de componentes orgânicos hidratados e lábeis, de origem biológica. O processo de liofilização é amplamente empregado na indústria farmacêutica, porém em termos de gestão de processo, deve-se evitar a liofilização a todo custo, pois o processo possui diversas desvantagens como: equipamentos de alto investimento, alta demanda energética, processo que demanda tempos longos e produtos com facilidade de hidratar e frágeis, necessitando ser cuidadosamente embalados e armazenados. Este trabalho tem como objetivo a diminuição do ciclo de liofilização de uma vacina viral e analisar a possibilidade de carregamento desse produto no liofilizador a temperaturas negativas, de forma a possibilitar o aumento de produtividade. Para tal, foram realizados três experimentos com ciclos de liofilização com 17 e 20h a menos que o ciclo de liofilização da vacina comercial. Os experimentos foram realizados com a mesma formulação do lote comercial e utilizando um liofilizador piloto. As modificações foram realizadas nas propriedades físicas do ciclo de liofilização atual (temperatura, pressão e tempo) e na temperatura de carga do produto, sem alteração na formulação da vacina ou embalagem primária. Amostras do produto liofilizado experimental foram analisadas quanto ao seu aspecto, desempenho, umidade residual, potência e termoestabilidade acelerada segundo os Mínimos Requerimentos da Organização Mundial da Saúde. Todos os resultados analisados estiveram dentro das especificações e próximos ou melhores quando comparados aos lotes comerciais de origem

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem como objeto de estudo a análise do processo de acompanhamento dos clientes portadores de feridas na atenção primária do município de Angra dos Reis. Os objetivos são: verificar a existência de processo de acompanhamento de clientes portadores de feridas nas unidades de atenção primária do município de Angra dos Reis; analisar as dificuldades inerentes ao processo de acompanhamento de clientes portadores de feridas nas unidades de atenção primária do município de Angra dos Reis. O método foi descritivo, o tipo é de levantamento e de natureza quantitativa. O instrumento de coleta de dados foi o formulário, tendo como sujeitos do estudo a população de enfermeiros atuantes na atenção primária do município de Angra dos Reis e que assinaram o Termo de Consentimento Livre e Esclarecido, conforme disposto na Resolução 196/96 do Conselho Nacional de saúde. O cenário utilizado foi o município de Angra dos Reis. A pesquisa foi aprovada pelo Comitê de Ética em Pesquisa do Instituto de Medicina Social da UERJ, através da Plataforma Brasil em 28/06/2013. A análise demonstrou que mais de 93% dos enfermeiros realizam curativos durante sua atuação profissional na atenção primária, destes, 80% realizam algum tipo de acompanhamento de clientes portadores de feridas. Este acompanhamento nem sempre é contínuo, por contada dificuldade técnica do próprio profissional, da interrupção do fornecimento de materiais por parte do almoxarifado, da baixa adesão do cliente e da inexistência de uma rotina institucionalizada. A insuficiência de produtos disponíveis no município para a realização de curativos também foi um fator descrito pelos sujeitos como prejudicador no processo de acompanhamento destes pacientes. Foi verificado que a utilização de produtos de segunda geração para realização de curativos, quando indicados de forma correta e respeitando o prazo de troca, proporciona uma economia nos fastos do município no que se refere ao tratamento tópico de feridas, economia esta que pode chegar à metade dos gastos. Este estudo foi relevante para a otimização do processo de acompanhamento de clientes portadores de feridas no município, bem como reorganização defluxos, rotinas e do cuidado prestado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em muitas representações de objetos ou sistemas físicos se faz necessário a utilização de técnicas de redução de dimensionalidade que possibilitam a análise dos dados em baixas dimensões, capturando os parâmetros essenciais associados ao problema. No contexto de aprendizagem de máquina esta redução se destina primordialmente à clusterização, reconhecimento e reconstrução de sinais. Esta tese faz uma análise meticulosa destes tópicos e suas conexões que se encontram em verdadeira ebulição na literatura, sendo o mapeamento de difusão o foco principal deste trabalho. Tal método é construído a partir de um grafo onde os vértices são os sinais (dados do problema) e o peso das arestas é estabelecido a partir do núcleo gaussiano da equação do calor. Além disso, um processo de Markov é estabelecido o que permite a visualização do problema em diferentes escalas conforme variação de um determinado parâmetro t: Um outro parâmetro de escala, Є, para o núcleo gaussiano é avaliado com cuidado relacionando-o com a dinâmica de Markov de forma a poder aprender a variedade que eventualmente seja o suporte do dados. Nesta tese é proposto o reconhecimento de imagens digitais envolvendo transformações de rotação e variação de iluminação. Também o problema da reconstrução de sinais é atacado com a proposta de pré-imagem utilizando-se da otimização de uma função custo com um parâmetro regularizador, γ, que leva em conta também o conjunto de dados iniciais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta pesquisa utilizou-se um equipamento experimental que utiliza o método do eco-impacto produzido no Laboratório de Ensaios Físicos do Instituto Politécnico do Rio de Janeiro (UERJ/IPRJ), para estimar a espessuras de placas de concreto através da propagação de ondas de tensão geradas por um impacto. Para determinação dessa espessura, foram investigados vários mecanismos de estruturação do protótipo do equipamento com objetivo de se obter a melhor leitura possível, por meio das literaturas existentes. Entre parâmetros avaliados no estudo, estava o modelo de sensor a ser utilizado, o tipo de impactor, a precisão relacionada à aquisição de dados e o tratamento do mesmo, a distância entre o ponto de impacto e o transdutor (sensor), e o local de teste. Os resultados experimentais concordam com as previsões teóricas e revelam que este método é eficiente para análise de estrutura de concreto. A análise da espessura e resposta em frequência de um novo protótipo desenvolvido e os testes realizados possibilitou um erro médio de espessura real para amostras sem agregados de 0,39% e para as amostras com agregados com de 0,64%. Esses resultados apontam que o equipamento produzido tem potencial e que o mesmo pode ser utilizado para avaliação de estrutura de concreto.