85 resultados para A salvagem perdiçao: erro e ruína na Ilíada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de um sistema de medição para a análise biomecânica da força desenvolvida durante a escovação dental, com aquisição e processamento de dados de dinamometria para a análise da escovação dental como um processo eficaz de higiene bucal. Foi desenvolvida uma célula de carga com extensômetros de resistência elétrica, montada em uma escova dental. A célula de carga foi construída com 2 Strain Gages montados em meia ponte de Wheatstone, medindo força em flexão, e 4 Strain Gages montados em ponte completa de Wheatstone medindo força de torque. A aquisição dos dados e análise foi feita através do software SAD2. Foram selecionados 6 indivíduos, dois do sexo masculino e 4 do sexo feminino, todos destros, e instruídos a escovarem os dentes por 1 minuto. Os valores medidos para a força de flexão média variam de 24gf à 526gf e para o esforço de torque médio de –76gfmm à 1890gfmm. A célula de carga desenvolvida mostrou-se repetitiva, com boa sensibilidade e confiável com um erro em flexão de 2,7% e 5,5% em torque. A célula de carga apresentou resultados semelhantes a de outros trabalhos publicados anteriormente, sendo estes válidos para uma análise quantitativa inicial no processo de escovação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos científicos e tecnológicos do desenvolvimento de software. No desenvolvimento de software, a fase de especificação dos requisitos é uma das mais importantes, visto que erros não detectados nesta são propagados para as fases posteriores. Quanto mais avaado estiver o desenvolvimento, mais caro custa reparar um erro introduzido nas fases iniciais, pois isto envolve reconsiderar vários estágios do desenvolvimento. A prototipação permite que os requisitos do software sejam validados logo no início do desenvolvimento, evitando assim a propagação de erros. Paralelamente, a utilização de métodos formais visa revelar inconsistências, ambigüidades e falhas na especificação do software, que podem caso contrário, não serem detectadas. Usar a prototipação de software juntamente com uma notação formal enfatiza a especificação do problema e expõe o usuário a um sistema “operante” o mais rápido possível, de modo que usuários e desenvolvedores possam executar e validar as especificações dos requisitos funcionais. O objetivo principal deste trabalho é instanciar uma técnica da área de Prototipação de Software que capacite o engenheiro de software gerar automaticamente protótipos executáveis a partir de especificações formais de tipos abstratos de dados, na notação PROSOFT-algébrico, visando a validação dos requisitos funcionais logo no início do desenvolvimento do software. Para tanto foi proposto um mapeamento da linguagem PROSOFT-algébrico para OBJ. Como OBJ possui um eficiente sistema de reescrita de termos implementado, a utilização deste propicia a prototipação de tipos abstratos de dados, especificados em PROSOFT-algébrico. Os componentes envolvidos na definição deste trabalho, assim como o mapeamento entre as linguagens, foram especificados algebricamente e implementados no ambiente de desenvolvimento de software PROSOFT. A implementação serviu para validar o mapeamento proposto através de dois estudos de caso. Por fim, são apresentadas as conclusões alcaadas e as atividades adicionais vislumbradas a partir do trabalho proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcaados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo determinar e avaliar a transmissibilidade da vibração no corpo humano além de desenvolver um modelo numérico de quatro graus de liberdade representativo do sistema banco e corpo humano. Para auxiliar no desenvolvimento deste trabalho foi realizado um resgate de pesquisas publicadas por pesquisadores anteriormente na área de modelamento numérico, além das medições e avaliações da transmissibilidade da vibração no corpo humano. Foram realizadas medições da transmissibilidade da vibração no corpo humano na posição sentado em um banco comumente utilizado para motoristas de ônibus urbanos. As medições foram realizadas ao longo do eixo z, de acordo com as recomendações das normas ISO 2631 (1974 e 1997), utilizando-se de acelerômetros uni-axiais, um computador com placa conversora analógica para digital (A/D), além de programas desenvolvidos na plataforma de programação gráfica HPVee para aquisição dos níveis de vibração e avaliação das transmissibilidades da vibração. A vibração vertical foi simultaneamente medida no corpo humano (direção z – ISO 2631). Para medir os níveis de vibração no assento, na pélvis, no ombro e na cabeça foram utilizados quatro micro-acelerômetros uni-axiais (Endveco Isotron 2250A/AM1-10) enquanto que no piso, foi utilizado um acelerômetro uni-axial da Brüel & Kjaer 4338. O grupo estudado nos experimentos era composto por cinco indivíduos, sendo três homens e duas mulheres. Avaliou-se a transmissibilidade entre o assento do banco e o piso, entre a pélvis o assento, entre o ombro e o assento e entre a cabeça e o assento. Os resultados indicaram que o sistema apresentou uma amplificação da transmissibilidade entre o assento e o piso em até 2,5 vezes, enquanto que, para as demais transmissibilidades (pélvis/assento, ombro/assento, cabeça/assento) houve uma atenuação gradual da transmissibilidade da vibração Um modelo linear de quatro graus de liberdade foi desenvolvido para representar o comportamento biodinâmico de indivíduos brasileiros submetidos à vibração forçada proveniente de sinais medidos em ônibus urbanos brasileiros. O modelo responde simultaneamente de acordo com os dados obtidos experimentalmente da transmissibilidade entre o assento e o piso e entre o ombro e o assento para uma faixa de freqüência de 4 até 40 Hz. Foi desenvolvida uma rotina no Maple 5.5 (anexo 10.4) a qual consiste em ajustar uma curva de transmissibilidade calculada com os limites estabelecidos dos parâmetros biomecânicos definidos nos ensaios biométricos e literatura às curvas de transmissibilidade obtidas experimentalmente. Os resultados indicaram que para a curva de transmissibilidade entre o assento e o ombro o erro foi de 37,78% enquanto que para as curvas de transmissibilidade entre o assento e o piso apresentaram um erro de 17,74 %. Apesar dos valores de erro percentual terem sido relativamente elevados, os valores de ambas as curvas de transmissibilidade numérica apresentaram resultados de ajuste muito próximos às curvas experimentais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcaar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma atividade com a magnitude da avicultura, que usa equipamentos de última geração e serviços atualizados, é levada, na maioria dos casos, a tomar decisões que envolvem todos aspectos de produção, apoiada em critérios subjetivos. A presente tese objetivou estudar a utilização das redes neurais artificiais na estimação dos parâmetros de desempenho de matrizes pesadas, pertencentes a uma integração avícola sul-brasileira. Foram utilizados os registros de 11 lotes em recria, do período compreendido entre 09/11/97 a 10/01/99 e de 21 lotes em produção, do período compreendido entre 26/04/98 a 19/12/99, para a análise por redes neurais artificiais. Os dados utilizados corresponderam a 273 linhas de registros semanais, do período de recria e 689 linhas de registros semanais, do período de produção. Os modelos de redes neurais foram comparados e selecionados como melhores, baseados no coeficiente de determinação múltipla (R2), Quadrado Médio do Erro (QME), bem como pela análise de gráficos, plotando a predição da rede versus a predição menos o real (resíduo). Com esta tese foi possível explicar os parâmetros de desempenho de matrizes pesadas, através da utilização de redes neurais artificiais. A técnica permite a tomada de decisões por parte do corpo técnico, baseadas em critérios objetivos obtidos cientificamente. Além disso, este método permite simulações das conseqüências de tais decisões e fornece a percentagem de contribuição de cada variável no fenômeno em estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de seguraa é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de seguraa adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de seguraa, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o exame para o diagnóstico de doenças da laringe é usualmente realizado através da videolaringoscopia e videoestroboscopia. A maioria das doenças na laringe provoca mudaas na voz do paciente. Diversos índices têm sido propostos para avaliar quantitativamente a qualidade da voz. Também foram propostos vários métodos para classificação automática de patologias da laringe utilizando apenas a voz do paciente. Este trabalho apresenta a aplicação da Transformada Wavelet Packet e do algoritmo Best Basis [COI92] para a classificação automática de vozes em patológicas ou normais. Os resultados obtidos mostraram que é possível classificar a voz utilizando esta Transformada. Tem-se como principal conclusão que um classificador linear pode ser obtido ao se empregar a Transformada Wavelet Packet como extrator de características. O classificador é linear baseado na existência ou não de nós na decomposição da Transformada Wavelet Packet. A função Wavelet que apresentou os melhores resultados foi a sym1et5 e a melhor função custo foi a entropia. Este classificador linear separa vozes normais de vozes patológicas com um erro de classificação de 23,07% para falsos positivos e de 14,58%para falsos negativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A hiperargininemia é um erro inato do ciclo da uréia causado pela deficiência na atividade da arginase hepática. Esta doença é caracterizada bioquimicamente pelo acúmulo tecidual de arginina (Arg). Retardo mental e outras alterações neurológicas, cujos mecanismos são ainda desconhecidos, são sintomas comuns em pacientes hiperargininêmicos. O óxido nítrico (NO) é gerado em todas as células do sistema nervoso central (SNC) pela enzima óxido nítrico sintase (NOS), a qual, na presença de oxigênio molecular, tetraidrobiopterina e outros cofatores, catalisa a conversão de Arg em NO e citrulina. Em condições normais, o NO desempenha importante papel fisiológico no SNC, como por exemplo, na liberação de neurotransmissores e expressão gênica. Quando há formação excessiva, o NO torna-se um importante mediador de neurotoxicidade Trabalhos realizados em nosso laboratório mostraram que a administração aguda de Arg em ratos diminui a atividade da Na+,K+-ATPase e aumenta o estresse oxidativo cerebral. Outros estudos mostraram que a administração de Arg prejudica a memória em ratos. Estes resultados foram prevenidos pelo Nϖ-nitro-L-arginine methyl ester (L-NAME), um inibidor competitivo da NOS, sugerindo que a administração de Arg altera estes parâmetros através do NO e/ou estresse oxidativo. Considerando que a administração de Arg aumenta o estresse oxidativo e que estudos mostram que o NO inibe a cadeia de transporte de elétrons provavelmente comprometendo a produção de energia, no presente trabalho, nós investigamos o efeito da administração aguda de Arg sobre alguns parâmetros do metabolismo energético (produção de CO2, captação de glicose, produção de lactato e atividades da succinato desidrogenase, complexo II e IV da cadeia respiratória) em hipocampo de ratos. Também testamos o efeito do L-NAME sobre os efeitos produzidos pela Arg Ratos adultos de 60 dias foram tratados com uma única injeção intraperitoneal de Arg, de acordo com o protocolo estabelecido por Buchmann e colaboradores (1996). A dose de Arg (0,8 g/Kg) usada atinge níveis plasmáticos semelhantes àqueles encontrados em pacientes hiperargininêmicos (1,5 mM). Os resultados do presente trabalho mostraram que a administração de Arg aumentou significativamente a produção de lactato e diminuiu a produção de CO2 e a captação de glicose, bem como as atividades da succinato desidrogenase e do complexo II, e que a injeção simultânea de L-NAME preveniu estes efeitos, exceto a produção de CO2 e a produção de lactato. No entanto, não houve alteração na atividade da citocromo c oxidase (complexo IV). Se estes achados também ocorrerem em humanos, pode-se presumir que a Arg prejudica o metabolismo energético, possivelmente através da geração de radicais livres induzida pela formação de NO e/ou da formação de poliaminas, contribuindo assim para a disfunção cerebral observada na hiperargininemia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presença de um universo de fatores adversos tem levado as edificações do patrimônio cultural a graus avaados de degradação e, muitas vezes, à perda total. O estudo de danos em edificações considera que, sendo conhecidas as causas da degradação, mais eficientes podem vir a ser os diagnósticos e mais adequadas as soluções de saneamento. Este trabalho apresenta, através de urna visão generalista e sistemática, urna contribuição para a identificação dos principais fatores de degradação e dos danos causados pelos mesmos. Agentes climáticos, agentes biológicos e a ação do homem são apontados pela pesquisa bibliográfica corno os principais agentes de degradação. A descrição sistemática proposta foi realizada através de urna revisão das características verificadas com maior freqüência e que devem ser percebidas pelo técnico ao avaliar as condições do prédio. Entendendo a atuação destes fatores, o técnico entra na edificação com um olhar muito mais apurado e crítico sobre as possíveis causas que estão levando a obra à ruína, além de avaliar os danos que devem ser tratados com prioridade. Com a finalidade de verificar as formas de atuação destes, foi realizado um estudo de caso múltiplo, a partir do levantamento de dados sobre urna amostra de edificações da cidade de Porto Alegre. Observou-se que, embora as condições climáticas sejam favoráveis à presença de alguns agentes, corno a umidade, por exemplo, aspectos referentes à ação do homem, corno a falta de conservação preventiva e as intervenções indevidas aparecem corno causas relevantes de danos As circunstâncias, freqüentemente, não permitem que sejam realizados os devidos trabalhos de conservação. Mesmo alguns, feitos sem a devida orientação, acabam por gerar danos ainda maiores. Verificou-se também que a avaliação do estado de degradação das edificações do patrimônio cultural requer um trabalho multidisciplinar, em função da gama de conhecimentos necessários para o entendimento da ação de todos os agentes e mecanismos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O entendimento do processo de fabricação por usinagem passa pelo estudo de fenômenos de formação de cavaco, esforços de corte, qualidade superficial do material usinado, mecanismos de desgaste de ferramenta e a influência de parâmetros de corte e tipo de material usado sobre essas variáveis. Neste contexto, o objetivo principal deste trabalho é analisar os efeitos do desgaste de ferramenta sobre as forças de corte e a rugosidade dos componentes usinados. O procedimento adotado foi a realização de ensaios de usinabilidade de longa duração em torneamento cilíndrico externo, durante os quais foram medidos desgaste de flanco, força de corte, força de avanço e rugosidade média dos componentes usinados. Os ensaios foram realizados para os aços ABNT 1040 e 1045 usando ferramentas de metal duro com revestimento duplo (TiN-Al2O3). Os resultados de vida de ferramenta foram analisados através da equação de Taylor, com maiores vidas de ferramenta observadas para o aço ABNT 1040 em todas as velocidades de corte testadas. As demais variáveis medidas foram analisadas em função do tempo de usinagem, desgaste de flanco máximo e acabamento superficial No domínio do tempo, foram encontradas correlações fortes para o desgaste de flanco máximo, força de corte e força de avanço para ambos os materiais. A relação entre a rugosidade média e o tempo de corte observada foi mais “estável” para o aço ABNT 1040. Contudo, variações no comportamento da rugosidade média foram observadas na velocidade de corte inferior usada na usinagem do aço ABNT 1045, devido ao desgaste mais lento do raio de ponta de ferramenta. Não se observou relação entre as forças de usinagem e a rugosidade média. A relação entre a força de corte e o desgaste de flanco máximo apresentou forte correlação para ambos os materiais, assim como a relação entre a força de avanço e o desgaste de flanco máximo, sendo realizada regressão linear para ambas as relações. Foi observada fraca influência da velocidade de corte nas relações força-desgaste de flanco, o que sugere que uma única equação pode descrever estas relações para toda a faixa de condições de corte estudada. Os resultados da análise de regressão permitem a determinação do desgaste de flanco máximo em função da força de corte com um erro médio de 15% para os aços ABNT 1040 e 1045. Para a previsão do desgaste de flanco em função da força de avanço, o erro médio encontrado foi de 19% para o aço ABNT 1040 e 15% para o aço ABNT 1045.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo experimental realizado na bacia hidrográfica do arroio Donato, localizada na região central do derrame basáltico sul-riograndense, com o objetivo de avaliar se a variabilidade espaço-temporal do conteúdo de água no solo pode ser explicada a partir de fatores do ambiente, tais como topografia e solo. Para isto foi analisado um conjunto de mais de 2000 medições de conteúdo de água no solo, coletadas numa malha regular em toda a bacia, nas profundidades de 0, 30 cm e 60 cm, com detalhamento em dois perfis com 280 m (Perfil P1) e 320 m (Perfil P3) de comprimento. As medições do conteúdo de água no solo foram realizadas pelo método gravimétrico, na camada superficial, e com TDR, nas camadas inferiores. A análise geoestatística dos dados mostrou que, na superfície do solo, a estrutura espacial é muito variável temporalmente. Na profundidade de 30 cm a presença de estrutura é mais permanente, indicando que nesta profundidade os processos laterais de distribuição de água são predominantes sobre os processos verticais. Os semivariogramas calculados com os dados do perfil P3 apresentam uma clara estrutura espacial, com o modelo exponencial com pepita apresentando um excelente ajuste. A análise de correlação mostrou que os atributos topográficos com maior correlação com o conteúdo de água no solo foram: área de contribuição, aspecto e curvatura no perfil, na superfície; e declividade, área de contribuição e aspecto, a 30 cm de profundidade. Os dados dos perfis P1 e P3 mostraram correlação muito fraca com praticamente todos os atributos topográficos testados nesta tese. Com relação aos índices de conteúdo de água, observou-se que os mesmos apresentam boa correlação com os dados da malha regular, principalmente com os obtidos a 30cm de profundidade. Nos conjuntos de dados obtidos somente numa vertente (perfis P1 e P3) os índices de conteúdo de água não apresentam bom desempenho. A análise de estabilidade temporal mostrou que na bacia do arroio Donato a estabilidade completa do padrão espacial do conteúdo de água no solo não existe na camada superficial existindo somente para a profundidade de 30 cm. No entanto, foi possível identificar pontos na bacia com estabilidade temporal, principalmente na profundidade de 30 cm e no perfil P1. O uso de pontos de estabilidade temporal permite estimar a média espacial do conteúdo de água no solo com erro inferior a 5% e 1% na superfície e 30 cm, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo numérico GENESIS (Generalized Model for Simulating Shoreline Change) é parte de um sistema de modelagem de linha de praia, o SMS (Shoreline Modeling System), desenvolvido pelo CERC (Coastal Engineering Research Center), U.S.A. É um modelo genérico, determinístico e bidimensional, com grande flexibilidade para ser adaptado a costas abertas, arenosas e sujeitas a intervenção humana. Utilizado na previsão da resposta da linha praia as diversas obras costeiras que podem ser implantadas na mesma. Características estas, que fazem dele uma ferramenta indicada para a o estudo costa do Rio Grande do Sul e para o objetivo deste estudo. A aplicação do modelo de evolução de linha praia – GENESIS neste trabalho, tem como objetivos: calibrar o modelo numérico GENESIS para a costa centro norte do Rio Grande do Sul e avaliar seu uso como ferramenta na previsão de impactos ambientais gerados por obras costeiras, Alem de reproduzir as condições do modelo físico reduzido de 1965 e comparar os resultados entre as simulações matemática e física. O modelo foi aplicado num trecho de linha de praia da região centro norte do Rio Grande do Sul, nas praias de Tramandaí e Imbé. As quais já foram alvo de estudos anteriores através de modelo físico reduzido, em função do desejo deste município em construir molhes na desembocadura do canal da Laguna de Tramandaí. Para implementação do modelo numérico GENESIS foram utilizados dados das posições da linha de praia em três diferentes anos, coletados pelo CECO/UFRGS, dados de onda coletados pelo ondógrafo do IPH/UFRGS, e diversos dados sobre as praias e sua história, retirados da extensa bibliografia publicada sobre a região de estudo. A calibração do modelo foi realizada através das linhas de praia medidas em 1997 e em 2000. O modelo foi considerado calibrado quando o mesmo consegui reproduzir a linha de praia do ano 2000 a partir da linha de 1997, obtendo um erro máximo de 15 m. Foram realizadas simulações que reproduziam as simulações feitas em modelo físico reduzido do IPH em 1965. Através da comparação dos dados de onda utilizados no modelo físico reduzido de 1965 e dos dados de onda coletados pelo ondógrafo em 1996, pudemos observar a importância do uso de um série de dados de onda neste tipo de estudo, bem como, a desenvoltura e limitações do modelo numérico GENESIS na situações geradas.