992 resultados para Técnicas de Fixação da Mandíbula
Resumo:
Os stents são dispositivos intravasculares implantados com o objetivo de dilatar ou fixar a placa de colesterol contra a parede arterial. O objetivo avaliar dois tipos de stents de aço inoxidável, um recoberto com poliéster (dacron) e outro não recoberto, implantados na aorta infra-renal de suínos jovens, foram avaliados por morfometria digital para medir o espessamento intimal. Foi realizado um estudo experimental randomizado, separados em dois grupos(stents não revestidos e revestidos com dacron) e duas fases (I e II). Oito stents recobertos com dacron e oito stents de aço inoxidável (30mm de extensão e 8 mm de diâmetro), não revestidos, foram implantados através de abordagem retroperitoneal na aorta infrarenal normal de 16 suínos normolipêmicos. Para a passagem do sistema de implante, foi necessário uma pequena arteriotomia na aorta distal (fase I). Após quatro semanas, a aorta com os stents foram removidas em monoblocos (fase II). Os valores de hematimetria e do lipidograma foram coletados nas duas fases e não apresentaram alterações que pudessem influenciar o estudo. Amostras de tecido dos sítios de fixação (proximal e distal) dos stents foram retiradas, confeccionadas lâminas, que foram coradas pelas técnicas de hematoxilina e eosina de Verhoeff e enviadas para análise morfométrica digital. A camada intima distal não apresentou diferença estatística significativa. A camada média proximal das porções proximal e da porção distal não apresentaram diferença entre os grupos. Os dois tipos de stents apresentaram 100% de perviedade, boa biocompatibilidade e boa incorporação a parede aórtica de suínos normolipêmicos. A camada íntima proximal do grupo de stents revestidos com dacron apresentou espessura maior do que os stents não revestidos, mas com significância estatísitica limítrofe.
Resumo:
A pesquisa em satisfação do consumidor se constituiu, nas últimas duas décadas, em uma das mais prolíficas correntes de pesquisa em comportamento do consumidor. Entre os diversos motivos que levaram a este crescimento, destaca-se a grande importância deste tipo de pesquisa para as decisões referentes a rentabilidade das empresas. Academicamente, esta linha de pesquisa gerou novas áreas de estudo, entre os quais o da insatisfação, onde esta dissertação se enquadra. Esta pesquisa consistiu na realização de um estudo exploratório da Insatisfação dos Consumidores com o Serviço de Assistências Técnicas de Autorizadas de Automóveis, investigando as causas, o nível e as conseqüências da insatisfação destes consumidores. Este trabalho foi realizado na cidade de Porto Alegre, em 1999. Foram feitos cruzamentos entre estes dados, e com o perfil sócio-demográfico dos consumidores. Entre as conclusões, encontram-se os atributos mais importantes para a insatisfação dos consumidores, a viabilidade do método utilizado para pesquisa de insatisfação e sugestões para os executivos do ramo evitarem a insatisfação de seus clientes.
Resumo:
Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).
Resumo:
A quantificação da precipitação é dificultada pela extrema aleatoriedade do fenômeno na natureza. Os métodos convencionais para mensuração da precipitação atuam no sentido de espacializar a precipitação mensurada pontualmente em postos pluviométricos para toda a área de interesse e, desta forma, uma rede com elevado número de postos bem distribuídos em toda a área de interesse é necessária para um resultado satisfatório. No entanto, é notória a escassez de postos pluviométricos e a má distribuição espacial dos poucos existentes, não somente no Brasil, mas em vastas áreas do globo. Neste contexto, as estimativas da precipitação com técnicas de sensoriamento remoto e geoprocessamento pretendem potencializar a utilização dos postos pluviométricos existentes através de uma espacialização baseada em critérios físicos. Além disto, o sensoriamento remoto é a ferramenta mais capaz para gerar estimativas de precipitação nos oceanos e nas vastas áreas continentais desprovidas de qualquer tipo de informação pluviométrica. Neste trabalho investigou-se o emprego de técnicas de sensoriamento remoto e geoprocessamento para estimativas de precipitação no sul do Brasil. Três algoritmos computadorizados foram testados, sendo utilizadas as imagens dos canais 1, 3 e 4 (visível, vapor d’água e infravermelho) do satélite GOES 8 (Geostacionary Operational Environmental Satellite – 8) fornecidas pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais. A área de estudo compreendeu todo o estado do Rio Grande do Sul, onde se utilizaram os dados pluviométricos diários derivados de 142 postos no ano de 1998. Os algoritmos citados buscam identificar as nuvens precipitáveis para construir modelos estatísticos que correlacionem as precipitações diária e decendial observadas em solo com determinadas características físicas das nuvens acumuladas durante o mesmo período de tempo e na mesma posição geográfica de cada pluviômetro considerado. Os critérios de decisão que norteiam os algoritmos foram baseados na temperatura do topo das nuvens (através do infravermelho termal), reflectância no canal visível, características de vizinhança e no plano de temperatura x gradiente de temperatura Os resultados obtidos pelos modelos estatísticos são expressos na forma de mapas de precipitação por intervalo de tempo que podem ser comparados com mapas de precipitação obtidas por meios convencionais.
Resumo:
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
Resumo:
Resumo não disponível.
Resumo:
A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.
Resumo:
O objetivo deste trabalho é investigar o processo composicional, a partir do pensamento do compositor. A investigação do processo composicional acontece em dois momentos. O primeiro momento é a realização documentada de um trabalho composicional, onde o pensamento do compositor fica registrado nas partituras, esboços e anotações que são feitas. O segundo momento é a realização de reflexões críticas a respeito dos conceitos técnicos e estéticos que são extraídos do trabalho composicional. As reflexões são feitas inicialmente considerando cada peça isoladamente e posteriormente considerando o conjunto de peças como um todo, estabelecendo ligações as composições. Em ambos os momentos busca-se evidenciar o fluxo de idéias do compositor no momento da criação, bem como seu modo de organizar estas idéias e produzir música.
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
A área de Detecção de Intrusão, apesar de muito pesquisada, não responde a alguns problemas reais como níveis de ataques, dim ensão e complexidade de redes, tolerância a falhas, autenticação e privacidade, interoperabilidade e padronização. Uma pesquisa no Instituto de Informática da UFRGS, mais especificamente no Grupo de Segurança (GSEG), visa desenvolver um Sistema de Detecção de Intrusão Distribuído e com características de tolerância a falhas. Este projeto, denominado Asgaard, é a idealização de um sistema cujo objetivo não se restringe apenas a ser mais uma ferramenta de Detecção de Intrusão, mas uma plataforma que possibilite agregar novos módulos e técnicas, sendo um avanço em relação a outros Sistemas de Detecção atualmente em desenvolvimento. Um tópico ainda não abordado neste projeto seria a detecção de sniffers na rede, vindo a ser uma forma de prevenir que um ataque prossiga em outras estações ou redes interconectadas, desde que um intruso normalmente instala um sniffer após um ataque bem sucedido. Este trabalho discute as técnicas de detecção de sniffers, seus cenários, bem como avalia o uso destas técnicas em uma rede local. As técnicas conhecidas são testadas em um ambiente com diferentes sistemas operacionais, como linux e windows, mapeando os resultados sobre a eficiência das mesmas em condições diversas.
Resumo:
Nos últimos anos a preocupação com a preservação dos recursos naturais, dos solo e das águas tem aumentado significativamente. Desta forma, a intensificação de estudos nestas áreas se faz necessária para tentar minimizar os impactos causados pela ação do homem, com vistas a recuperação. A área de estudo abrange os municípios de Tavares e S. José do Norte, situado no Litoral Médio Leste do Rio Grande do Sul, entre as coordenadas 31° 00’ e 32° 10’ de latitude Sul e 50° 00’ e 52° 10’ de longitude Oeste. Este trabalho busca fornecer subsídios para a identificação dos índices da vulnerabilidade física associados ao uso do solo da área de estudo visando a adequação do uso da terra, bem como o planejamento e o desenvolvimento de novas atividades. O estudo foi desenvolvido utilizando técnicas de sensoriamento remoto e geoprocessamento, onde os fatores foram cruzados via regra de decisão fazendo uso do SIG. Os resultados evidenciaram a necessidade de cuidados especiais no desenvolvimento de atividades sustentadas e ocupação humana.
Resumo:
O presente trabalho objetivou avaliar diferenças na patogenicidade de 19 cepas de B. pilosicoli isoladas de casos de diarréia em suínos no Estado do Rio Grande do Sul. Foi utiliza o modelo experimental em pintos de um dia, que possui boa eficiência quando usado para a infecção oral com a B. pilosicoli, pois permite a consistente colonização cecal dos animais inoculados. Através dessa infecção experimental, buscou-se estabelecer diferenças de patogenicidade entre cepas de referência da B. pilosicoli e cepas dessa espécie isoladas previamente de casos de diarréia em leitões no Rio Grande do Sul. Foram inoculadas 21 cepas de origem suína e duas cepas controle (uma a referência da espécie, P43/6/78 e um isolado humano, P16). Os animais foram inoculados por via oral com uma suspensão de bactérias vivas multiplicadas em meio líquido, num inóculo de 0,8 mL contendo 1x106 espiroquetas na fase logarítmica de crescimento. Decorridos 21 dias após a infecção experimental, os animais foram sacrificados e os cecos fixados em formalina 10% tamponada, processados para exame histológico e os cortes examinados através da coloração pela prata e com uma técnica imunohistoquímica. Com o uso da coloração pela prata, 65% dos animais mostraram colonização pela B. pilosicoli do epitélio do cecal. Houve diferenças no tipo de colonização, consistindo de aderência contínua, aderência focal ou presença de bactérias livres na luz intestinal. Com a técnica de imunohistoquímica, 76,2% das cepas mostraram colonização. Dessa forma, concluiu-se que a imunohistoquímica foi superior à coloração pela prata para a avaliação da colonização intestinal dos pintos, pois foi capaz de detectar 11,2% de cepas colonizadoras a mais do que a coloração pela prata Um segundo experimento visou avaliar a transmissão horizontal da infecção por B. pilosicoli. Para tal, foram mantidos em contato na mesma gaiola, pintos inoculados com a bactéria e animais chamados “contatos”, não inoculados. Com o uso da coloração pela prata, 23,8 % apresentaram-se positivos e, pela imunohistoquímica, 54,2 % foram positivos. Aqui também a imunohistoquímica revelou-se mais eficiente do que a coloração pela prata. Como conclusão desse experimento, as cepas de campo analisadas mostraram alta capacidade de difusão horizontal. Um achado inesperado foi a presença de figuras elongadas dentro do citoplasma das células epiteliais cecais entre alguns animais inoculados. Essas estavam presentes em 33,3 % das cepas, quando analisadas através da coloração pela prata. Pelos dados obtidos, não foi possível concluir que as figuras fossem Brachyspira pilosicoli, pois poderia tratar-se de outra bactéria intracelular ou artefato. Entretanto, como recentemente (no ano de 2003) foi realizado o primeiro registro por microscopia eletrônica de um achado de Brachyspira spp. intracelular, esse achado poderia significar uma alta capacidade invasiva entre as cepas analisadas. Novos estudos serão realizados e, caso comprovado, esse fato poderia auxiliar em muito o entendimento da patogenia da infecção pela B. pilosicoli, pouco clara até o momento.
Resumo:
Navegação, seleção e manipulação de objetos em ambientes virtuais são baseadas em métodos (técnicas de interação) associados a dispositivos convencionais ou especiais. Existem várias técnicas e dispositivos à disposição dos que desenvolvem aplicações com tais ambientes, sendo a escolha da técnica mais adequada uma tarefa difícil. Neste trabalho, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para realizar tarefas de seleção e manipulação de objetos e navegação do usuário pelo AV. A metodologia adotada nos experimentos realizados, visando a avaliar técnicas de interação em AVs imersivos foi composta por critérios de avaliação de interfaces de IHC (interface humano-computador), com critérios utilizados por Bowman, Mine e Poupyrev em seus experimentos com interfaces 3D. Também são apresentados alguns experimentos realizados, tendo vista avaliarem-se técnicas de interação na realização de tarefas de navegação, seleção e manipulação de objetos em ambientes virtuais imersivos. O objetivo deste trabalho foi a realização de experimentos para avaliar técnicas de interação para operações de seleção, manipulação e navegação em ambientes virtuais. Foram realizadas duas experiências: a primeira é uma avaliação de técnicas de seleção e manipulação em um ambiente semi-imersivo similar a um jogo de xadrez. As técnicas avaliadas são a mão virtual, associada a um mouse comum e a uma luva; e a ray-casting, associada à luva. Observou-se que o desempenho dos sujeitos é superior, quando a técnica utilizada é a mão virtual associada ao mouse comum. A segunda experiência apresenta uma avaliação experimental de dispositivos de RV em tarefas de navegação. Foi criado um ambiente, contendo um edifício com um elevador panorâmico e corredores de entrada e saída. Os testes foram realizados num ambiente imersivo, com capacete e luva, e, também em um ambiente semi-imersivo, com mouse comum e óculos com lentes de cristal líquido. Nesse segundo experimento, a preferência dos usuários pelos equipamentos utilizados foram o capacete e a luva. Observou-se que a existência ou não de objetos familiares no trajeto percorrido pelo usuário, não afeta a quantidade de colisões do sujeito com as mesmas.
Resumo:
Este trabalho trata das consequências sobre os preços de equilíbrio da presença de agentes com racionalidade limitada e da possibilidade de eficácia de um tipo de análise técnica muito utilizada no mercado financeiro: a regra de médias móveis. Na primeira parte, apresentamos uma resenha de diversos trabalhos sobre o papel dos agentes com racionalidade limitada na formação dos preços de equilíbrio das ações. Os diversos modelos foram colocados em um arcabouço comum para facilitar a exposição. Sob hipóteses gerais, a presença de agentes com racionalidade limitada aumenta a volatilidade das ações e pode tornar as trajetórias de preços bastante complicadas. A presença de agentes irracionais e de analistas técnicos pode ser justificada do ponto de vista teórico. Porém, utilizando técnicas de bootstrap, não encontramos evidências empíricas de que um tipo particular de regra de médias móveis produza retornos acima da média incondicional do IBOVESPA.
Resumo:
O objetivo da presente dissertação é o estudo da difusão de Ag e Al em uma matriz de α-Ti. Sua motivação principal se origina do fato de haver na literatura resultados contraditórios sobre o comportamento difusional desses elementos. Além disso, este estudo é necessário para dar continuidade à investigação sistemática da difusão de impurezas substitucionais em α-Ti, que vem sendo realizada pelo grupo de implantação iônica, a fim de estabelecer uma relação entre tamanho, valência e solubilidade dos elementos e seus coeficientes de difusão. A dependência do coeficiente de difusão com a temperatura para ambos elementos foi estudada nos intervalos de temperatura de 823 a 1073 K para a Ag e 948 a 1073 K para o Al. No caso da Ag foi usada a técnica de RBS para determinar os perfis de concentração, a qual tem uma alta resolução em profundidade (tipicamente 10nm), o que permite a determinação das baixas difusividades esperadas no presente experimento ( D ≤ 10-7 m2/s). No caso do Al foi usada a técnica de NRA, que preenche os mesmos requisitos citados anteriormente, com uma resolução em profundidade de aproximadamente 10 Å. As medidas realizadas mostraram que, para ambos os casos, os coeficientes de difusão seguem uma representação linear de Arrhenius. Foram encontrados os seguintes parâmetros característicos de difusão: Do = (1 ± 0,75) x10-4 m2s-1 e Q = 279 ± 6 kJ/mol para a Ag e Do = (1,4 ± 1,2) x10-2 m2s-1 e Q = 326 ± 10 kJ/mol para o Al, os quais são típicos de um comportamento substitucional normal. A comparação desse trabalho com trabalhos prévios não mostra evidência de relacionamento entre tamanho, valência e solubilidade dos elementos e seus coeficientes de difusão.