91 resultados para Confiabilidade
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
No português brasileiro (PB) há basicamente dois tipos de nasalidade: a nasalidade dita fonológica é a marca de nasalidade obrigatória que recebe a vogal quando seguida por uma consoante nasal na mesma sílaba (como em ‘campo’); a nasalidade dita fonética é a marca de nasalidade que recebe a vogal de uma rima vazia seguida de uma consoante nasal no onset da sílaba seguinte (como em ‘cama’). Em língua espanhola (LEsp), considera-se que o traço [+ nasal] não tem relevância fonológica, apenas fonética. Entretanto, mesmo que ocorra alguma nasalização, esta é praticamente imperceptível para um falante nativo e também não é auditivamente relevante para os falantes não-nativos em geral. Devido à proximidade entre português e espanhol e considerando a grande quantidade de brasileiros estudantes de LEsp que nasalizam a vogal oral /a/ em LEsp quando seguida de consoante nasal, desejamos verificar se o estudante de graduação tem dificuldade em perceber esse segmento. Para isso, os sujeitos da pesquisa – estudantes do Curso de Graduação em Letras-Licenciatura da UFRGS de diferentes semestres e falantes nativos de LEsp (grupo de controle) – foram submetidos a dois testes de percepção – um constituído por um texto e outro por uma lista de palavras -, nos quais deveriam identificar se um som vocálico era nasal [ã] ou oral [a]. Com esses instrumentos e baseados nos estudos de Sampson (1999), Moraes (1997) e Beddor (1993) sobre nasalidade e percepção vocálica, desejamos verificar se os estudantes percebem categoricamente a distinção entre vogal nasal e não-nasal e também se os estudantes em níveis médio e avançado mostram uma percepção melhor do que a dos estudantes dos níveis básicos. Falantes nativos de LEsp foram submetidos aos testes para fins de controle da confiabilidade dos mesmos e para verificarmos até que ponto a nasalização indevida das vogais pode prejudicar a comunicação.
Resumo:
A confiabilidade de sistemas de processamento digital de sinais é, entre tantos fatores, diretamente proporcional à confiabilidade dos conversores analógico-digitais neles presentes para serem usados como interface com o mundo real. Este trabalho propõe um método novo de teste de conversores analógico-digitais baseado em ruído. O método proposto possibilita a detecção de falhas nos conversores em teste. Além disto, a técnica proposta é capaz de estimar simultaneamente características estáticas e dinâmicas tornando-se, portanto, inovador em relação aos demais métodos presentes na literatura. A proposta, a simulação e a implementação do método são apresentadas ao longo desta dissertação. A comparação dos resultados obtidos com um método padrão de teste de ADCs, o método do histograma, comprovam a eficácia do método.
Resumo:
Com um volume considerável de publicações nacionais e internacionais sobre a satisfação de clientes, uma ênfase cada vez maior tem sido dada para o processo de avaliação pós-compra do consumidor. Porém, o processo de satisfação é insuficiente para explicar muitos dos comportamentos que o consumidor manifesta após o consumo. Além de confrontar o recebido com o esperado, gerando julgamentos de satisfação ou insatisfação, o consumidor confronta o recebido com o que teria acontecido se outra opção tivesse sido feita. É justamente nesta confrontação entre o recebido e o que poderia ter sido recebido que surge o arrependimento. O arrependimento é pouco abordado na literatura brasileira de comportamento do consumidor. Além disso, as escalas que o medem são escassas e o fazem de forma incompleta. Posto isso, o principal objetivo dessa dissertação é o de propor uma escala que meça o arrependimento no processo de tomada de decisão do consumidor, considerando aspectos afetivos e cognitivos desse construto. Para tanto, procedeu-se a uma análise de validação de construto para a escala proposta em duas amostras distintas: consumidores de automóveis e de calçados femininos. Os resultados apontam para a existência de validade de conteúdo, unidimensionalidade, confiabilidade e validade convergente para as dimensões hipotetizadas. A validade divergente não foi evidenciada e é um ponto de discussão. As implicações desse estudo e sugestões para estudos futuros são apresentadas.
Resumo:
Apesar do grande número de publicações nacionais e internacionais que dão destaque à satisfação do cliente, a compreensão do que ocorre com o mesmo quando ele experiencia um sentimento que vai além da satisfação na avaliação pós-consumo ainda é incipiente. O fato de vivenciar esse sentimento gera um estado emocional profundamente positivo para com a experiência de compra ou consumo, que é conhecido como "encantamento do cliente". Apesar da importância desse constructo no estudo do comportamento do consumidor – dadas as diversas atitudes pós-compra/consumo que podem ser oriundas desse estado –, as escalas desenvolvidas até o presente momento para sua mensuração foram poucas e o fizeram de maneira incompleta. Nesse sentido, o objetivo maior desta dissertação é propor uma escala que meça o encantamento do cliente na avaliação pós-consumo, levando em conta as dimensões do constructo. Para tanto, utilizaram-se três estudos sucessivos; os dois primeiros objetivaram purificar a escala proposta, e o terceiro procedeu à validação de constructo. Os resultados apontam para a existência de validade de conteúdo, unidimensionalidade, confiabilidade, validade convergente e validade discriminante para as dimensões do constructo estudado. Considerações finais discutem os achados do estudo, suas implicações gerenciais e acadêmicas, assim como sugestões para a continuidade das pesquisas sobre o tema.
Resumo:
Esta pesquisa propõe um modelo de avaliação dos custos dos acidentes do trabalho e das doenças relacionadas com o trabalho sob uma nova ótica, fundamentado no método de custeio por atividades (ABC – Activity-Based Costing). Basicamente, no modelo proposto, soma-se, às duas fases do método ABC (rastreamento dos recursos às atividades e das atividades aos objetos de custo parciais), uma terceira fase de alocação dos objetos de custo parciais ao acidente do trabalho ou à doença relacionada com o trabalho. Os elementos constituintes e os componentes de custo incluídos no modelo proposto foram baseados na revisão bibliográfica sobre os custos dos acidentes e das doenças do trabalho, contabilidade e sistemas de custos. O modelo foi validado por meio de um estudo de caso na indústria da construção, tendo-se considerado sua aplicabilidade, confiabilidade dos resultados e auxílio no processo de tomada de decisões. Os resultados obtidos no estudo de caso mostraram que o modelo proposto possibilitou a visão de custos inicialmente não captados pelo modelo em uso na empresa e que pode atuar como ferramenta de apoio ao processo de tomada de decisões em segurança e saúde no trabalho porque estabelece novos parâmetros para tal avaliação: alocação dos recursos e atividades destinadas ao atendimento do acidente/doença em centros de atividades e objetos de custo parciais. Foram, também, identificadas oportunidades de aperfeiçoamento do modelo, pois o estudo de caso evidenciou que a aplicação do modelo não foi tão fácil como se esperava e, portanto, evidenciando a necessidade da introdução de uma primeira etapa de lançamento do modelo para melhor aplicação em empresas.
Resumo:
Neste trabalho, foram analisadas, implementadas e mostradas as características de uma interface com estrutura de programação genérica para o ambiente Windows, criando facilidades de rapidez, confiabilidade e a apresentação de resultados aos usuários do sistema matemático Maple na criação e uso de aplicações matemáticas. A interface utilizou como modelo de implementação cálculos modais de vigas clássicas de Euler-Bernoulli. O usuário encontra, em um único sistema, cálculo para vigas clássicas, terá uma entrada de dados facilitada de variáveis que serão substituídas automaticamente no programa fonte da viga e a geração de resultados em um ambiente amigável com dados e gráficos mostrados de forma organizados.
Resumo:
Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.
Resumo:
O estudo do comportamento de adoção de produtos e serviços baseados em tecnologia pelo consumidor tem representado um dos principais desafios para a área de marketing, pois, em meio à intensa proliferação destes produtos, diversos estudos apontam a crescente frustração do consumidor para interagir com a tecnologia. Tais evidências são especialmente importantes à medida que as crenças do consumidor estão positivamente relacionadas a sua aceitação ou resistência em adotar produtos e serviços tecnológicos. Nesse contexto, a prontidão para tecnologia emerge como constructo fundamental para o entendimento das atitudes do consumidor diante da tecnologia, e diz respeito à propensão dos indivíduos a adotar produtos e serviços tecnológicos a partir de condutores e inibidores mentais relacionados ao otimismo, inovatividade, desconforto e insegurança. A Technology Readiness Index (TRI) é o instrumento de medida desenvolvido por Parasuraman (2000) e Parasuraman & Colby (2001), para mensuração da prontidão para tecnologia dos consumidores. Este estudo teve como objetivo avaliar a aplicabilidade da TRI no contexto brasileiro, por meio da reaplicação do instrumento de medida a uma amostra de 731 consumidores, maiores de 18 (dezoito) anos, na cidade de Porto Alegre. Embora se tenha verificado uma estrutura subjacente à prontidão para tecnologia ligeiramente modificada, com 6 fatores, considera-se a TRI um instrumento válido para mensuração da prontidão para tecnologia dos consumidores. A qualidade da TRI foi comprovada através do exame da validade de conteúdo e de constructo. A validade de constructo foi verificada via avaliação da unidimensionalidade, confiabilidade, validade convergente e discriminante de cada dimensão da escala. Tal avaliação foi complementada com o exame da associação dos escores dos respondentes da TRI com as questões sobre posse e uso de produtos e serviços tecnológicos. Este estudo oferece algumas evidências sobre a capacidade da TRI de distinguir usuários de não usuários destes produtos e de predizer comportamentos de adoção.
Resumo:
Entre as doenças causadas por bactérias do gênero Mycobacterium, a tuberculose por M. tuberculosis é a mais conhecida. O diagnóstico da doença é feito utilizando-se um conjunto de exames que possibilitam a identificação da mesma (WATT, 2000). Contudo, sabe-se que o diagnóstico combinado de microscopia direta e com o posterior isolamento em meio de cultivo é o “padrão-ouro”. A principal desvantagem desse método é que tal bactéria possui um crescimento lento (cerca de 8 semanas). Recentemente, a detecção de doenças através da técnica de reação em cadeia da polimerase (PCR) tem proporcionado avanços significativos no diagnóstico. O uso da amplificação específica de genes, para identificar a M. tuberculosis, tais como rDNA 16S, IS6110 ou a região intergênica senX3-regX3, tem apresentado algumas restrições, ao nível de confiabilidade e sensibilidade, para a aplicação da técnica de PCR. O presente estudo mostra a construção e a aplicação de um novo alvo para a aplicação da PCR no diagnóstico da tuberculose, baseado no ensaio da diferença de organização gênica do operon plcA, B e C diferenciando a M. tuberculosis das demais micobactérias. Neste trabalho, foram examinadas 273 amostras de pacientes com suspeita de tuberculose, sendo estas submetidas ao estudo comparativo da técnica de PCR versus cultivo (padrão ouro). A PCR amplificou fragmentos de 439pb. Os resultados mostram 93,7% de acurácia para PCR/Cultivo (p<000,1), 93,1% de sensibilidade com intervalo de confiança de 88,7-96,0 e especificidade de 96,4% com intervalo de confiança de 96,4-99,4. O valor da estatística Kappa (k) foi de 0,82 com erro padrão de 0,041, demonstrando um alinhamento quase perfeito para a verificação do grau de concordância entre os testes. Desta forma, o uso desta nova região para a amplificação da PCR se mostra uma importante e confiável ferramenta no diagnóstico específico da tuberculose. Outra região que compreende parte dos genes mbaA e inhA foi utilizada para diferenciar o Complexo tuberculosis do Complexo avium. Porém, novos experimentos serão necessários para o emprego desta região como uma ferramenta de diagnóstico.
Resumo:
Este trabalho visa a identificar fatores que têm influência na implementação de planos estratégicos, através da realização de um estudo de caso em uma universidade privada do Rio Grande do Sul - a Universidade do Vale do Rio dos Sinos. Uma breve revisão da literatura promove a abordagem de alguns conceitos relativos ao tema "estratégia", como planejamento estratégico, plano estratégico e processo estratégico, além de um elenco de elementos que envolvem a formulação e implementação de estratégias nas organizações em geral. O trabalho inclui também uma descrição da estrutura e do contexto organizacionais da instituição objeto do estudo. A análise dos documentosgerados pelo processo de planejamento estratégico da Organização,associada a uma pesquisa do tipo survey e respostas a uma questão aberta, permitiram destacar um conjunto de fatores considerados influentes na implementação de um plano estratégico na organização estudada. A pesquisa contemploutambém uma análise de fatores que ocorreram na organização durante a formulação e a implementaçãodo plano estratégicoem questão.
Resumo:
Esta dissertação é um estudo exploratório a respeito do papel da confiança nas redes simétricas de empresas enquanto principal mecanismo de coordenação nas relações entre as empresas. O estudo analisa a experiência de uma rede de pequenas empresas estofadoras do Sistema Local de Produção Moveleiro de Bento Gonçalves, Rio Grande do Sul. A rede foi formada a partir de um programa governamental. Na parte teórica, é feita uma revisão sobre a cooperação interorganizacional e arranjos em rede. A revisão também incluiu os mecanismos de coordenação presentes nas redes, o conceito de confiança (sua relação com o imbricamento social) e o seu papel nas relações interorganizacionais. No final da parte teórica, é apresentado um modelo para analisar a confiança nas relações interorganizacionais dentro da rede. Na segunda parte, depois de dar algumas informações sobre a indústria moveleira do Rio Grande do Sul, é feita uma análise da rede tendo em vista as características e mecanismos de coordenação apresentados na revisão de literatura. Na seqüência, são feitas considerações sobre o caráter temporário ou estratégico desse tipo de arranjo interorganizacional. Também é feita a aplicação do modelo e analisado como a confiança é vista pelas empresas da rede. Conforme sugerido pela literatura, os resultados da análise indicam um papel muito importante da confiança e do imbricamento social no início e manutenção das relações interorganizacionais dentro da rede. Os resultados contribuem com o tema emergente do papel da confiança em redes de empresas. As contribuições são importantes tanto para pequenas empresas que queiram se organizar em rede quanto para instituições e formuladores de política pública.
Resumo:
A crescente valorização dos imóveis nos centros de grandes cidades, com o custo do metro quadrado cada vez mais elevado, assim como o aprimoramento de técnicas e materiais construtivos, levaram a uma tendência mundial da construção de edificações altas. Contudo essas edificações altas, leves e esbeltas são suscetíveis a problemas dinâmicos, que podem levar a um comprometimento de confiabilidade das mesmas ou ao desconforto de seus usuários. Dentre as ações dinâmicas o vento trata-se de uma das mais importantes. A previsão da resposta induzida pela ação dinâmica do vento por métodos analíticos é complexa e de difícil resolução, principalmente para os efeitos transversais ao sentido da velocidade média do vento. Assim a construção de modelos aeroelásticos para a análise do comportamento dinâmico de edifícios altos em túnel de vento é, ainda hoje, a maneira mais confiável e precisa para chegar-se na resposta. Na presente dissertação é apresentado um estudo teórico e experimental de um edifício alto submetido a ação dinâmica do vento. As respostas obtidas em túnel de vento, através de um modelo aeroelástico equivalente de dois graus fundamentais de liberdade, são comparadas com as formulações da Norma Brasileira NBR - 6123, para a resposta longitudinal ao vento, e da Norma Canadense NBCC - 1985, para as respostas longitudinal e transversal ao vento.
Resumo:
Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.
Resumo:
O objetivo deste trabalho foi investigar a aplicação de métodos de ultra-som para avaliação e caracterização da microestrutura de materiais cerâmicos à base de alumina e sua associação com as propriedades mecânicas destes materiais. Para tanto, foram conformados por prensagem uniaxial corpos cerâmicos contendo 94,3% em peso de Al2O3. Os corpos cerâmicos foram sinterizados em forno de resistência elétrica em temperaturas que variaram entre 1100 e 1600 °C. A resistência mecânica e o KIc foram determinados por ensaios de flexão a quatro pontos. Para medir a resistência ao dano por choque térmico, os corpos cerâmicos foram colocados em um forno pré-aquecido na temperatura de teste e permaneceram nesta temperatura por 40 min, quando, então, foram resfriados bruscamente através da imersão dos corpos cerâmicos em água mantida a 0oC. A microestrutura dos corpos cerâmicos foi caracterizada por microscopia eletrônica de varredura e microscopia óptica. Para os ensaios de ultra-som foram utilizados transdutores piezelétricos de 2 e 4 MHz de freqüência nominal. A imagem resultante foi tratada via software e utilizouse um osciloscópio para padronização. Foram utilizados como parâmetros a velocidade da onda ultra-sônica e a sua atenuação. Os resultados indicaram a correlação entre as propriedades acústicas do material com a sua microestrutura e com suas propriedades mecânicas, tais como, resistência mecânica, módulo de elasticidade e dano por choque térmico. Foi possível propor equações relacionando a resistência mecânica com a variação do coeficiente de atenuação e da velocidade de propagação das ondas ultra-sônicas. Sugere-se também a possibilidade de utilização do coeficiente de atenuação para a determinação da confiabilidade do material cerâmico e o seu uso para a estimativa de vida útil do material sob carga constante ou submetido a choque térmico.