109 resultados para Falhas ósseas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O treinamento de força é praticado por adultos e idosos que visam ao melhoramento do rendimento desportivo ou ao aprimoramento da aptidão física, sendo consensual, no meio científico, as adaptações musculares e ósseas proporcionadas por essa prática. No entanto, a treinabilidade da força em crianças é discutida, principalmente, em função das controvérsias existentes entre estudos, referentes às adaptações provocadas pelo treinamento em nível muscular, bem como sobre as diferenças existentes entre os estágios de maturação. Sendo assim, as crianças são treináveis em relação à força muscular? O objetivo deste estudo foi avaliar a treinabilidade das forças de flexão do cotovelo e extensão do joelho em meninos escolares prépúberes e púberes submetidos a um programa de treinamento de força dinâmico e individualizado e comparálos com um grupo controle. O treinamento foi realizado 3 vezes por semana, durante 12 semanas, com 3 séries de 10-12 repetições, a uma intensidade de 60% a 85% do 1-RM. Também foi avaliada a especificidade do treinamento, comparando-se os ganhos obtidos nas forças dinâmica e estática dos membros superiores e inferiores. Os resultados indicaram que meninos pré-púberes e púberes submetidos ao treinamento apresentaram ganhos significativos na força muscular dinâmica (1-RM), tanto na flexão do cotovelo (88,9% e 44,4%, respectivamente) como na extensão do joelho (36,1% e 32,2%, respectivamente). O grau de treinabilidade da força, avaliado pelo ganho em quilogramas (∆) ocorrido nesses exercícios, foi semelhante nos dois grupos maturacionais. No entanto o treinamento dinâmico não alterou a força muscular estática, pois não houve alteração significativa das forças de flexão do cotovelo e extensão do joelho em 90° e 130°. Estes dados confirmam o princípio da especificidade entre os métodos de treinamento e de avaliação da força muscular. Palavras-chave: treinamento de força, força dinâmica, força estática, pré-púberes e púberes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estuda a aplicação parcial do modelo de excelência em prestação de serviços proposto por SILVA (1997) no núcleo de engenharia e arquitetura do Banco do Brasil S.A. em Porto Alegre (NUCEN Porto Alegre). O foco do estudo é o bloco “Ouvindo clientes, especialistas e planos” do modelo relatado, especialmente o tópico “Ouvindo clientes”. Para tanto, foi realizada uma pesquisa junto aos clientes do NUCEN Porto Alegre (todas as agências, órgãos regionais e postos de atendimento avançado do Banco do Brasil S.A. no estado do Rio Grande do Sul). Os resultados da pesquisa foram analisados por atributo (total de 27), que depois foram agrupados entre 9 critérios competitivos (acesso, atendimento/atmosfera, velocidade do atendimento, tangíveis, flexibilidade, preço/custo, competência, consistência e credibilidade/segurança). Posteriormente, os resultados foram analisados por região geográfica de atendimento (A, B, C, D, E, F, G e H) e, finalmente, por categoria das dependências (agências de níveis 1, 2, 3 e 4, além de órgãos regionais/postos de atendimento avançado), obtendo-se a indicação de esforços de melhoria nos seguintes pontos • Em relação aos 27 atributos da pesquisa: velocidade de atendimento para serviços de manutenção de ar condicionado (atributo 8); velocidade de atendimento para serviços de manutenção de porta giratória (atributo 9); custo das obras de reformas e serviços de conservação predial (atributo 19); recuperação de falhas quando há reclamação por serviços não prestados adequadamente (atributo 18); qualificação, conhecimento e experiência dos profissionais das empresas contratadas (atributo 25); custo para manutenção de porta giratória (atributo 21); e custo para manutenção de ar condicionado (atributo 20); • Em relação aos atributos da pesquisa agrupados entre os 9 critérios competitivos: custo e velocidade de atendimento; • Em relação às 8 regiões de atendimento: atendimento às dependências da região A; e • Em relação às 5 categorias das dependências: atendimento às agências de níveis 1 e 2. Com base nos resultados obtidos na pesquisa, o autor propõe diversas ações de melhoria de desempenho para implementação no NUCEN Porto Alegre (RS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho propõe-se a avaliar a integração do Mercosul em seus primeiros dez anos de existência, sob uma expectativa de que esta integração foi bem sucedida. A hipótese presente é a de que a ampliação do mercado que a integração propiciou tenha permitido criar estímulos à construção de vantagens competitivas e melhorar a inserção internacional das economias integradas. Busca-se aplicar os avanços recentes do pensamento acadêmico que inter-relaciona os temas comércio internacional, tecnologia e competitividade como meio de construir vantagem competitiva. O estudo está centrado na questão da competitividade das exportações. Na maioria das análises trabalha-se com a base de dados de comércio internacional CUCI (Classificação Uniforme para o Comércio Exterior) e a metodologia CAN2000 (Competitiveness Analysis of Nations) da Divisão Cepal/Onudi de Indústria e Tecnologia, para avaliar o impacto da integração em setores industriais. O âmbito teórico para ajudar nessa análise e ao qual o presente trabalho se insere encontra-se dentro do campo analítico da abordagem neo-schumpeteriana. A abordagem permite a discussão das estratégias empresariais, o papel da inovação e da concorrência na criação de vantagens competitivas, as diferenças de comportamento entre firmas em um mesmo setor, a presença de falhas de mercado, os diferentes processos de acumulação de experiência e aprendizagem por parte das firmas, os regimes tecnológicos, a complexidade institucional, as incertezas que cercam a conduta tecnológica e inovativa das empresas, as transformações nos ambientes econômicos, entre outros elementos, que auxiliaram a interpretar as mudanças do padrão de especialização e da estrutura da indústria no âmbito do Mercosul. Conclui-se que a integração per se motivou a melhora competitiva, mas em ritmo lento, o que leva a propor que devam ser adotadas medidas complementares para expandir as exportações, mediante apoio a setores selecionados entre os de maior crescimento do comércio mundial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo objetivou investigar o funcionamento da memória implícita e explícita em deficientes mentais por Síndrome de Down (SD) comparados com indivíduos deficientes mentais de outras etiologias (DM) e crianças de desenvolvimento típico de mesma idade mental (DT). Foram administrados testes de procedimento viso-espacial e pré-ativação para avaliar memória implícita e testes de memória episódica explícita para material verbal e viso-espacial a 12 sujeitos SD, 12 DM e 12 DT. Considerando o sistema de múltiplas memórias, procurou-se investigar quais estariam preservadas ou falhas nos três grupos. Os resultados demonstraram diferenças nítidas entre os grupos. Percebeu-se uma defasagem significativa de memória implícita na SD, um melhor desempenho de memória implícita nos DM e de memória explícita nas crianças DT. Estes resultados revelam um grande prejuízo implícito na SD, mas também defasagem explícita, reforçando a necessidade de estimulação precoce a esta população. Implicações para o trabalho pedagógico serão discutidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os revestimentos são, do ponto de vista funcional, integrantes das vedações e fundamentais para a durabilidade dos edifícios, contribuindo para o bom aspecto das fachadas. A identificação e correção das possíveis falhas certamente aumentam o grau de satisfação da população de maneira geral por sua contribuição para a estética da cidade, além de contribuir para aumentar a vida útil do produto e de seu valor comercial. Este trabalho apresenta os resultados de levantamento de dados realizado em edificações da zona urbana da cidade de Pelotas, com o objetivo de levantar dados sobre as manifestações patológicas nos revestimentos de seus paramentos exteriores, identificando aspectos relacionados aos materiais, tipo de lesões, incidência, etc. Por meio de observação in loco, foram analisadas 424 fachadas de edificações, sendo os dados coletados com o auxílio de um instrumento composto por duas fichas: a primeira, dividida em duas partes, serviu para identificar o responsável pelo seu preenchimento, bem como para identificar e caracterizar a edificação, enquanto que a segunda ficha, serviu para caracterizar as lesões encontradas nos revestimentos. Os dados coletados foram analisados por meio do software estatístico SPSS. As informações foram organizadas em dois bancos de dados, um para registro das informações referentes à edificação e outro para as informações referentes às lesões. Os resultados permitiram concluir que as edificações analisadas, de um modo geral, foram construídas antes de 1970, com paredes de tijolos cerâmicos, revestidas com argamassas inorgânicas e pintadas, cobertura de telhas cerâmicas, esquadrias de madeira e para uso residencial. O estado de conservação é razoável, apresentando com mais freqüência, três lesões por fachada. As lesões mais freqüentes são: manchas de sujeira ou vegetação parasitária, umidade ascensional, descolamento em placas, descoloração e fissuras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Formular hipóteses a partir da observação e testá-las através da experimentação caracteriza o método baconiano; a formulação inicial explicitamente era fruto de um insight intuitivo, que Francis Bacon denominou indução. A objetividade está no início do processo do conhecimento, basta o cientista deixar os fatos falarem por si enquanto lê o livro aberto da natureza. Uma forma mais sofisticada de indutivismo faz distinção entre contexto da descoberta e contexto da justificação para separar a questão de como as teorias científicas são desenvolvidadas da questão de como testá-las contra suas rivais. Karl Popper, discordando desta atitude, vai atribuir o primeiro ao acaso e para o segundo assumirá uma epistemologia evolucionista. Popper, não acreditando na possibilidade da existência de um critério de verdade, propõe um critério de falsificabilidade. O conhecimento não se daria por generalizações a partir da experiência, mas pela elaboração de conjeturas de alto conteúdo empírico que seriam submetidas à lógica dedutiva (baseado no modus tolles) e experimentação. Popper, por influência humeana, nega qualquer papel da indução na aquisição do conhecimento, que não partiria de percepções, de observações nem do acúmulo de dados ou fatos, mas sim de problemas. Na ausência de critério conclusivo de verdade empírica, só nos resta aprender com nossos erros. O progresso do conhecimento adviria da refutação de uma hipótese e da procura de outra com maior conteúdo explicativo e que pudesse evitar ao menos algumas das falhas da hipótese anterior. Este seria o critério de progresso científico. O problema do falsificacionismo de Popper é que o cientista não persegue teorias para provar que são falsas, mas teorias que procura demonstrar verdadeiras. Popper nos diz qual seria o ideal da ciência, mas não de como ela é praticada. Tomados isoladamente, tanto o indutivismo como o método hipotético-dedutivo são simplistas e ingênuos. O primeiro é cego, não direciona a experimentação pela hipótese teórica. O segundo tem direcionamento teórico, mas não dá conta da geração da hipótese. Como ambos estão do mesmo lado na descrição da relação do experimento e da teoria, isto torna frutífera a interação destas duas vias. É tematizada a teoria dos germes e a descoberta da penicilina como exemplo desta abordagem em biologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta uma metodologia de retroalimentação do ciclo de desenvolvimento de produtos, com ênfase na fase de projeto, a partir de dados obtidos em estudos de confiabilidade. A metodologia é proposta com base no escopo da norma QS-9000, norma esta que vem sendo utilizada por fornecedores e sub-fornecedores da indústria automobilística no mundo inteiro. Um estudo de caso permitiu que a metodologia fosse implementada em uma empresa certificada na norma. São aplicadas retroalimentações em ferramentas como Desdobramento da Função Qualidade (QFD), Análise dos Modos e Efeitos de Falha de Produto (DFMEA) e de Processo (PFMEA). Os resultados obtidos demonstraram que a metodologia de retroalimentação proposta é uma ferramenta útil na maturação de um produto, através da utilização dos dados de falhas em campo, bem como no momento do desenvolvimento de um produto novo, que irá suceder o atual, através da utilização da voz do cliente e dos dados de falha em campo de forma ordenada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos científicos e tecnológicos do desenvolvimento de software. No desenvolvimento de software, a fase de especificação dos requisitos é uma das mais importantes, visto que erros não detectados nesta são propagados para as fases posteriores. Quanto mais avançado estiver o desenvolvimento, mais caro custa reparar um erro introduzido nas fases iniciais, pois isto envolve reconsiderar vários estágios do desenvolvimento. A prototipação permite que os requisitos do software sejam validados logo no início do desenvolvimento, evitando assim a propagação de erros. Paralelamente, a utilização de métodos formais visa revelar inconsistências, ambigüidades e falhas na especificação do software, que podem caso contrário, não serem detectadas. Usar a prototipação de software juntamente com uma notação formal enfatiza a especificação do problema e expõe o usuário a um sistema “operante” o mais rápido possível, de modo que usuários e desenvolvedores possam executar e validar as especificações dos requisitos funcionais. O objetivo principal deste trabalho é instanciar uma técnica da área de Prototipação de Software que capacite o engenheiro de software gerar automaticamente protótipos executáveis a partir de especificações formais de tipos abstratos de dados, na notação PROSOFT-algébrico, visando a validação dos requisitos funcionais logo no início do desenvolvimento do software. Para tanto foi proposto um mapeamento da linguagem PROSOFT-algébrico para OBJ. Como OBJ possui um eficiente sistema de reescrita de termos implementado, a utilização deste propicia a prototipação de tipos abstratos de dados, especificados em PROSOFT-algébrico. Os componentes envolvidos na definição deste trabalho, assim como o mapeamento entre as linguagens, foram especificados algebricamente e implementados no ambiente de desenvolvimento de software PROSOFT. A implementação serviu para validar o mapeamento proposto através de dois estudos de caso. Por fim, são apresentadas as conclusões alcançadas e as atividades adicionais vislumbradas a partir do trabalho proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante sua utilização, tubos que operam na pirólise de substâncias orgânicas sofrem degradação estrutural resultante dos mecanismos de carburização que, em geral, levam à falha dos tubos. A carburização decorre da quantidade de carbono disponível na pirólise, que chega a formar uma camada intensa de coque no interior dos tubos. Para a retirada do coque, é introduzido vapor no intuito de queimá-lo que, adicionalmente, deixa carbono na superfície para a carburização. Este trabalho analisa os aspectos metalúrgicos envolvidos no ataque das liga Fe-Cr- Ni através da carburização, onde falhas catastróficas podem ocorrer devido às tensões térmicas geradas nas paradas de retirada do coque formado. Os tubos usados são fabricados com as ligas HP40 e HPX. Ligas ricas em cromo e níquel são utilizados; no caso do níquel a estabilização da estrutura austenítica e do cromo pela formação de uma camada protetora de óxido. No entanto, tempos prolongados de emprego da liga pode gerar quebra da barreira protetora e, então, proporcionar a difusão do carbono para o material, causando mudanças microestuturais que irão afetar as propriedades metalúrgicas Neste trabalho foram analisadas microestruturas de ligas com 25% Cr e 35% Ni que operaram por 20.000 e 37.000 horas, bem como a realização de uma série de tratamentos térmicos com ligas 25% Cr 35% Ni e 35% Cr 45% Ni sem uso, a fim de se estabelecer à relação existente entre a difusão do carbono e a microestrutura resultante. De posse destes dados, foram realizadas análises em microscopia, ensaios mecânicos, dilatometria e modelamento das tensões térmicas geradas nas paradas de decoking. Foi, também, desenvolvido uma metodologia capaz de relacionar a espessura da camada difundida de carbono com o magnetismo existente na superfície interna causada pela formação de precipitados magnéticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Devido às altas tensões envolvidas nos mecanismos de fadiga por contato, o uso de aços de alta dureza é uma exigência na fabricação de mancais de rolamento. Se a dureza de uma das partes em contato é baixa (sendo menor que 58 HRC), a ocorrência da descamação de camadas superficiais torna-se iminente no material menos duro. Estes defeitos superficiais podem, eventualmente, levar o componente a fraturar na direção radial se as tensões circunferenciais trativas forem relativamente elevadas. Os rolamentos que apresentam estes tipos de falhas são fabricados com o aço SAE 52100 temperado e revenido, com têmpera total. Recentemente tem sido sugerida a utilização do aço SAE 52100 processado por tratamento isotérmico para a obtenção de bainita inferior já que esta microestrutura apresenta boa tenacidade e resistência à fadiga associadas a uma alta dureza. Neste trabalho, foram realizados tratamentos térmicos utilizando o aço SAE 52100 a fim de obter microestruturas cujas matrizes fossem, predominantemente, martensita revenida ou bainita inferior. Para a condição martensítica, utilizou-se o tratamento térmico convencional de têmpera e revenido com três temperaturas de revenido para a obtenção de diferentes quantidades de austenita retida na matriz martensítica. Para a condição bainítica, utilizou-se o tratamento de austêmpera para a obtenção de bainita inferior com alto nível de dureza O comportamento mecânico do aço SAE 52100, tratado termicamente nas quatro condições, foi avaliado através de ensaio de tração e ensaio de impacto Charpy. O comportamento em fadiga, por sua vez, foi avaliado através de ensaios de propagação de trinca por fadiga realizados em corpos de prova tensão compacto. Para a determinação da influência da razão de carregamento (R=Kmin/Kmax) sobre o comportamento em fadiga este parâmetro foi variado entre 0,1 e 0,5. Foram realizadas análises fractográficas em todas as superfícies de fratura e de fadiga. Os resultados dos testes indicaram um melhor comportamento em fadiga para o aço SAE 52100 com microestrutura bainítica. No entanto para um R = 0,5, este material apresentou comportamento semelhante ao martensítico de mesmo nível de dureza na região limiar de fadiga. Observou-se o fenômeno de fechamento de trinca nos testes realizados com R de 0,1 e 0,3, sendo este efeito mais pronunciado para o menor valor de R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema desta dissertação de mestrado é o estudo da Engenharia Reversa como ferramenta de suporte à melhoria e adaptação de produtos. A partir de conceitos teóricos sobre desenvolvimento de produtos e melhoria de processos, propõe-se uma metodologia para adaptação de produtos destinados à exportação. A metodologia proposta consiste de oito passos, contemplando etapas de identificação e priorização das demandas de adaptação de produtos e elencando ferramentas auxiliares no atingimento dos objetivos desejados. A etapa inicial deste trabalho consiste de uma revisão bibliográfica dividida em duas partes: (i) adaptação de produtos através da utilização da Engenharia Reversa e seus habilitadores, e (ii) ferramentas para melhoria de processos. Os tópicos contemplados em (ii) incluem ferramentas para o mapeamento de processos de manufatura e para a sua melhoria. Destaque especial é dado ao Desdobramento da Função Qualidade – QFD (Quality Function Deployment), a Análise de Modos e Efeitos de Falhas (FMEA – Failure Mode and Effect Analysis) e às Cartas de Processos. Na seqüência, apresentam-se os passos da metodologia proposta para a adaptação de produtos às demandas de mercado utilizando a Engenharia Reversa e seus habilitadores. Finalmente, os passos metodológicos são aplicados a um caso prático, cujo objetivo é a adaptação de um pincel, produzido por uma empresa gaúcha, às demandas de um distribuidor alemão de ferramentas manuais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos principais fatores que determinam o baixo desempenho das avaliações está relacionado à omissão de importantes atributos nos processos avaliatórios. A seleção de bens comparáveis ao imóvel avaliando e o reconhecimento das variáveis que devem participar do modelo avaliatório são fatores determinantes no resultado das avaliações. Falhas na interpretação destes aspectos, bem como o limitado conhecimento quanto à forma de interação dos atributos na formação do valor dos imóveis, tendem a gerar distorções nas estimativas de valor obtidas. Para minimizar os erros e reduzir a imprecisão dos trabalhos, é imprescindível saber quais atributos contribuem para a formação do valor dos imóveis. O presente trabalho objetiva aumentar a compreensão dos atributos que influenciam a decisão de compra dos apartamentos residenciais através da análise das preferências dos consumidores. O estudo visa verificar se parte da imprecisão dos trabalhos avaliatórios é causada pelo desconhecimento parcial destes atributos por parte dos avaliadores Para tanto, realizou-se uma pesquisa de caráter exploratório, cujos instrumentos de levantamento de dados são questionários, aplicados para verificar e comparar a importância atribuída a um extenso número de atributos por dois grupos distintos, formados por avaliadores de imóveis e compradores. Os resultados obtidos indicam que os atributos usualmente empregados na prática avaliatória não são, em sua grande maioria, aqueles que influenciam a decisão de compra no processo de aquisição dos imóveis. Além disso, apesar de existir coerência na interpretação dos avaliadores sobre a contribuição de uma série de atributos para a formação do valor de mercado dos imóveis, foram identificadas distorções na forma como estes profissionais percebem a importância de alguns atributos, havendo, por exemplo, uma supervalorização de aspectos relativos à localização e segurança Por outro lado, os avaliadores não distinguem a elevada influência de alguns atributos no processo de decisão de compra, tais como existência de elevador e gás central, áreas de serviço maiores e idoneidade da empresa que construiu o imóvel. Embora o trabalho não apresente resultados plenamente conclusivos neste sentido, pode-se dizer que há um forte indicativo de que o nível de imprecisão das avaliações imobiliárias possa ser reduzido através de uma maior compreensão das preferências dos consumidores.