989 resultados para Métodos de Pontos Interiores
Resumo:
No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.
Resumo:
O câncer de próstata é o tumor não cutâneo mais comum entre homens e responsável pela segunda maior mortalidade entre os tumores neste sexo. Diferentes métodos são utilizados com o objetivo de determinar o prognóstico do paciente portador de câncer de próstata, contudo existe grande heterogeneidade quando estes são usados individualmente. A leptina é um hormônio peptídico envolvido na regulação da ingestão alimentar, do metabolismo, do gasto energético, além de função neuroendócrina. Este hormônio parece estar envolvido na patogênese de alguns tipos de tumores, inclusive os adenocarcinomas de próstata. Até o presente não se tem certeza se a leptina e seu receptor possam ser utilizados como fatores prognósticos no cancer de próstata. O objetivo do trabalho foi correlacionar os perfis de imunomarcação da leptina e seu receptor em adenocarcinomas de próstata com diferentes fatores prognósticos e comparar as análises de imunomarcação da leptina e seu receptor em adenocarcinomas de próstata por métodos semiquantitativos e quantitativos (morfometria). Foram analisadas 532 peças cirúrgicas de prostatectomias radicais por câncer prostático. A partir destas amostras, após estudo histopatológico, foi montado um arranjo de matriz tecidual, contendo fragmentos de áreas tumorais e não tumorais (peritumorais) destas amostras. Estas foram imunomarcadas com anticorpos antileptina e antirreceptor de leptina. Análises subjetivas (feitas por dois observadores) e objetivas (através da contagem de pontos) foram realizadas em cada uma das imunomarcações. Estes resultados foram comparados e correlacionados com os seguintes fatores prognósticos: invasão perineural, embolização neoplásica vascular, comprometimento bilateral da próstata, invasão das vesículas seminais, comprometimento de margem vesical, de margem uretral e de margem cirúrgica de ressecção. Houve diferença significativa entre as análises subjetivas dos dois observadores e, portanto, estas não foram utilizadas para as demais comparações. Em relação às análises objetivas, foi verificado que a expressão do receptor de leptina estava diminuída nos tumores com comprometimento de margem cirúrgica, de margem uretral e de vesículas seminais. Ainda foi observado correlação entre a expressão desse receptor e o somátório dos fatores prognósticos analisados. Para as demais análises não foi verificada diferença significativa. Métodos semiquantitativos podem ter grande variação e devem ser preteridos em relação a métodos quantitativos para as análises realizadas neste estudo. Nem a leptina nem o seu receptor apresentaram alterações de sua expressão em amostras neoplásicas de próstata quando comparado àquelas não neoplásicas. O receptor de leptina apresentou uma diminuição da sua expressão em tumores com margem cirúrgica comprometida, margem uretral comprometida e com vesículas seminais comprometidas. Houve correlação negativa entre o percentual de área imunomarcada com o anticorpo antirreceptor de leptina e o somatório dos fatores prognósticos analisados.
Resumo:
O uso de modelos de estudo dentários faz parte tanto da prática quanto da pesquisa odontológica e ortodôntica. Com a introdução dos scanners 3D e dos tomógrafos CBCT (cone beam computer tomography) tornou-se possível a obtenção de modelos dentários tridimensionais virtuais das arcadas dentárias. Foram selecionados 56 modelos dentários superiores e escaneados em três tipos diferentes de scanners: Maestro 3D Dental Scanner (AGE Solutions, Potedera, Italia), 3Shape R700 3D Scanner (3Shape, Copenhagen, Dinamarca) e o scanner 3Shape TRIOS (3Shape, Copenhagen, Dinamarca). Doze medidas foram realizadas nos modelos dentários de gesso e comparadas com as mesmas medidas realizadas nos modelos dentários digitais por meio do teste de Análise de Variância (ANOVA). Estatisticamente não foram encontradas diferenças significativas entre as medições tradicionais nos modelos dentários de gesso e as medidas realizadas nos modelos dentários digitais. Os três tipos de métodos de aquisição de modelos dentários digitais foram considerados confiáveis para as medições horizontais, transversais e verticais. Os modelos dentários virtuais podem ser indicados como substitutos dos modelos dentários de gesso.
Resumo:
[es]El principal objetivo de este trabajo es la validación de métodos analíticos nuevos como son la determinación de amonio, nitrato y carbono orgánico total en muestras de aguas de estuario ya que no se han encontrado estudios para este tipo de muestras. A partir de este objetivo principal, se pretende, por un lado, comprobar la influencia de la diferente salinidad de las muestras en el desarrollo de métodos potenciométricos mediante ISE para la medida de nitrato y amonio y del equipo de TOC-VCSN para la determinación de carbono orgánico. Además, con la ayuda de cálculos estadísticos, determinar la incertidumbre asociada a la determinación de la concentración de amonio, nitrato y carbono orgánico en las muestras. Y, por último, analizar la posible variación de las muestras a lo largo del tiempo para comprobar su estabilidad.
Resumo:
A partir das dimensões dos indivíduos pode-se definir dimensionamentos adequados para os produtos e postos de trabalho, proporcionando segurança e conforto aos usuários. Com o avanço da tecnologia de digitalização de imagens (escaneamento) 3D, é possível tirar algumas medidas de maneira mais rápida e com a redução da presença do entrevistado durante o processo. No entanto, faltam estudos que avaliem estas tecnologias no Brasil, sendo necessária a realização de uma comparação das tecnologias e das respectivas precisões para que seu uso em pesquisas. Com o objetivo de oferecer métodos comparativos para escolha dos marcadores e equipamentos a serem utilizados em uma pesquisa antropométrica tridimensional da população brasileira, no presente estudo estão comparadas duas tecnologias de escaneamento: o sistema a laser WBX da empresa norte americana Cyberware e o sistema MHT da empresa russa Artec Group. O método para avaliação da precisão dimensional dos dados advindos desses equipamentos de digitalização de imagens 3D teve cinco etapas: Estudo dos processos de escaneamento; Escaneamento dos marcadores de pontos anatômicos; Escaneamento utilizando um corpo de prova cilíndrico; Escaneamento de um manequim; Escaneamento de um voluntário que teve seus pontos anatômicos marcados para a retirada de medidas. Foi feita uma comparação entre as medidas retiradas manualmente, por meio de antropômetro e virtualmente, com o auxílio do software de modelagem tridimensional Rhinoceros. Em relação aos resultados obtidos na avaliação do manequim e do voluntário, concluiu-se que a magnitude do erro absoluto é semelhante para ambos os scanners, e permanece constante independentemente das dimensões sob análise. As principais diferenças são em relação às funcionalidades dos equipamentos.
Resumo:
137 p.
Resumo:
A discriminação de fases que são praticamente indistinguíveis ao microscópio ótico de luz refletida ou ao microscópio eletrônico de varredura (MEV) é um dos problemas clássicos da microscopia de minérios. Com o objetivo de resolver este problema vem sendo recentemente empregada a técnica de microscopia colocalizada, que consiste na junção de duas modalidades de microscopia, microscopia ótica e microscopia eletrônica de varredura. O objetivo da técnica é fornecer uma imagem de microscopia multimodal, tornando possível a identificação, em amostras de minerais, de fases que não seriam distinguíveis com o uso de uma única modalidade, superando assim as limitações individuais dos dois sistemas. O método de registro até então disponível na literatura para a fusão das imagens de microscopia ótica e de microscopia eletrônica de varredura é um procedimento trabalhoso e extremamente dependente da interação do operador, uma vez que envolve a calibração do sistema com uma malha padrão a cada rotina de aquisição de imagens. Por esse motivo a técnica existente não é prática. Este trabalho propõe uma metodologia para automatizar o processo de registro de imagens de microscopia ótica e de microscopia eletrônica de varredura de maneira a aperfeiçoar e simplificar o uso da técnica de microscopia colocalizada. O método proposto pode ser subdividido em dois procedimentos: obtenção da transformação e registro das imagens com uso desta transformação. A obtenção da transformação envolve, primeiramente, o pré-processamento dos pares de forma a executar um registro grosseiro entre as imagens de cada par. Em seguida, são obtidos pontos homólogos, nas imagens óticas e de MEV. Para tal, foram utilizados dois métodos, o primeiro desenvolvido com base no algoritmo SIFT e o segundo definido a partir da varredura pelo máximo valor do coeficiente de correlação. Na etapa seguinte é calculada a transformação. Foram empregadas duas abordagens distintas: a média ponderada local (LWM) e os mínimos quadrados ponderados com polinômios ortogonais (MQPPO). O LWM recebe como entradas os chamados pseudo-homólogos, pontos que são forçadamente distribuídos de forma regular na imagem de referência, e que revelam, na imagem a ser registrada, os deslocamentos locais relativos entre as imagens. Tais pseudo-homólogos podem ser obtidos tanto pelo SIFT como pelo método do coeficiente de correlação. Por outro lado, o MQPPO recebe um conjunto de pontos com a distribuição natural. A análise dos registro de imagens obtidos empregou como métrica o valor da correlação entre as imagens obtidas. Observou-se que com o uso das variantes propostas SIFT-LWM e SIFT-Correlação foram obtidos resultados ligeiramente superiores aos do método com a malha padrão e LWM. Assim, a proposta, além de reduzir drasticamente a intervenção do operador, ainda possibilitou resultados mais precisos. Por outro lado, o método baseado na transformação fornecida pelos mínimos quadrados ponderados com polinômios ortogonais mostrou resultados inferiores aos produzidos pelo método que faz uso da malha padrão.
Resumo:
O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.
Resumo:
A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos
Resumo:
A fibrose hepática é o aspecto mais relevante e o mais importante determinante de morbimortalidade na hepatite C crônica (HCC). Historicamente, a biópsia hepática é o método de referência para avaliação da fibrose causada pela HCC, apesar de apresentar limitações. O estudo de marcadores não invasivos, que possam obviar a necessidade da biópsia, é uma área de constante interesse na hepatologia. Idealmente, a avaliação da fibrose hepática deveria ser acurada, simples, prontamente disponível, de baixo custo e informar sobre o prognóstico da patologia. Os marcadores não invasivos mais estudados são a elastografia hepática transitória (EHT) e os laboratoriais. A EHT já foi extensamente validada na HCC e está inserida na rotina de avaliação destes pacientes. Dentre os laboratoriais, existem diversos testes em continua experimentação e, até o momento, nenhum foi integrado à prática clínica no Brasil, embora já aplicados rotineiramente em outros países. O Enhanced Liver Fibrosis (ELF), um teste que dosa no soro ácido hialurônico, pró-peptídeo amino-terminal do colágeno tipo III e inibidor tissular da metaloproteinase 1, tem se mostrado bastante eficaz na detecção de fibrose hepática significativa e de cirrose na HCC. Neste estudo o ELF teve o seu desempenho avaliado em relação a biópsia hepática e demonstrou apresentar boa acurácia na detecção tanto de fibrose significativa quanto de cirrose. Na comparação com a EHT apresentou acurácia semelhante para estes mesmos desfechos, com significância estatística. No entanto, foi observada uma superestimação da fibrose com a utilização dos pontos de corte propostos pelo fabricante. Este achado está em acordo com a literatura, onde não há consenso sobre o melhor ponto de corte a ser empregado na prática clínica. Com a ampliação da casuística foi possível propor novos pontos de corte, através da análise clássica, com a biópsia hepática como padrão ouro. O resultado obtido vai ao encontro do observado por outros autores. Em seguida, os novos pontos de corte do ELF foram reavaliados sem que a biópsia hepática fosse a referência, através da análise de classes latentes. Mais uma vez o ELF apresentou bom desempenho, inclusive com melhora de suas sensibilidade e especificidade em comparação com a análise clássica, onde a biópsia hepática é a referência. Assim sendo, é possível concluir que o ELF é um bom marcador não invasivo de fibrose hepática. No entanto, para detecção de fibrose significativa e cirrose, deve ser considerada a aplicação na prática clínica dos novos pontos de corte aqui propostos.
Resumo:
A Baía da Ilha Guaíba é um sistema costeiro tropical com influência de águas oceânicas, principalmente da Corrente do Brasil e das Águas Costeiras que são predominantes em toda a costa da região sudeste. O objetivo geral foi identificar os indicadores biológicos das possíveis alterações ambientais e ou antrópicas e como objetivos específicos, apresentar a distribuição qualitativa e quantitativa do fitoplâncton em função da espacialidade e da sazonalidade em duas situações de maré bem como demonstrar a estrutura da comunidade fitoplanctônica dentro de um Programa de Monitoramento desenvolvido pela empresa Minerações Brasileiras Reunidas através do Centro de Tecnologia Ambiental da FIRJAN (CTA). Foram estabelecidos 9 pontos amostrais na área sob influência do Terminal Marítimo da Ilha levando em consideração as características de cada um. Para o estudo qualitativo e quantitativo do fitoplâncton, 200 ml de água foram coletados em dois pontos de amostragem 7 e 9 em baixa-mar e preamar, através de garrafa de Van Dorn e nos 9 pontos foi realizado arrasto com rede de 50μm, ambos em quatro épocas sazonais distintas. Ao todo foram encontradas 176 unidades taxonômicas demonstrando uma importante oferta de nichos. A espécie que mais se destacou foi Coscinodiscus cf. centralis em todas as amostras de rede. A sazonalidade foi vista através de uma análise de Cluster tanto para as amostras de rede quanto para as de garrafa. Não houve registro de espécies que indicassem alterações antrópicas não revelando condição de eutrofização. Foram encontradas espécies indicadoras de diferentes massas de água como também outras potencialmente nocivas. Os resultados bióticos e abióticos demonstraram que a área sob influência do empreendimento está dentro dos padrões estabelecidos pela legislação vigente e que para o estabelecimento de um desenvolvimento sustentável torna-se imprescindível a adoção de métodos padronizados e multiinterdisciplinares para que seja possível comparar e acompanhar os processos e seus efeitos viabilizando assim a manutenção da biodiversidade.
Resumo:
As rodovias podem representar um importante fator na fragmentação de habitat para espécies silvestres adaptadas a habitats de alta complexidade estrutural, como as florestas tropicais. As estradas reduzem a conectividade da paisagem e a capacidade da população regional em habitar todas as áreas adequadas e estes efeitos são mais significativos nas espécies que evitam a estrada, que são, muitas vezes, espécies de interior de florestas. A magnitude dos efeitos de barreira dependerá do comportamento e mobilidade destas espécies. Quando as estradas representam ralos (sink) ou barreiras para as populações, devido, respectivamente, aos atropelamentos ou à repulsa, medidas mitigadoras são indicadas para aumentar a conectividade entre as manchas de habitat separadas por essas estradas. A qualidade do habitat é um fator que deve ser considerado, mesmo com baixas frequências de atropelamentos nesses locais. O objetivo desse estudo foi propor dois métodos de seleção de áreas prioritárias para implantação de medidas mitigadoras dos efeitos das estradas sobre espécies de vertebrados florestais: Seleção Hierárquica Multivariada e Seleção Bivariada. A área de estudo foi o bioma Mata Atlântica, sendo recortado em paisagens hexagonais em três escalas diferentes (10.000, 1.000 e 100 km), usando a extensão Repeating Shapes no programa ArcGIS 9.3. Em cada hexágono foram calculados: área de floresta e de Unidade de Conservação, densidade de estradas e de hidrografia. Apenas os hexágonos cobertos por no mínimo 45% pela Mata Atlântica, com mais de 50% de cobertura florestal e mais de 1% de Unidades de Conservação foram incluídos nas análises. Após esta seleção, no método Seleção Hierárquica Multivariada, foi feita uma análise de componentes principais (PCA) com as quatro variáveis medidas, para cada escala separadamente. Os hexágonos foram então ordenados segundo o posicionamento deles no 1 Eixo da PCA de forma hierárquica e da maior para menor escala de hexágonos. Para área de estudo o método de Seleção Bivariada foi construído um gráfico de pontos, para cada escala de hexágono, com as variáveis cobertura florestal e rios. Foram selecionados os hexágonos que estavam localizados no quadrante do gráfico que representasse maior densidade de rios e maior porcentagem de cobertura florestal. Posteriormente foi feita uma simulação para avaliar se os métodos eram capazes de recuperar escores tão alto quanto a ordenação seguindo apenas o posicionamento dos hexágonos no Eixo 1 da PCA, sem uma análise hierárquica. O método de Seleção Hierárquica Multivariada foi mais eficiente para escolha de áreas prioritárias do que a Seleção Bivariada tanto para a escala intermediária (1.000 km) quanto para a menor escala (100 km). Os cinco hexágonos de 100 km mais prioritários estão localizados em São Paulo e Paraná, abrangendo quatro UCs (PARES de Jacupiranga, APA de Guaraqueçaba, APA Cananéia- Jacuípe e PARES da Ilha do Cardoso). Devido à simplicidade e fácil aplicabilidade do método, acredita-se que este pode ser uma opção interessante para escolha de áreas prioritárias para implantação de medidas mitigadoras dos efeitos de estradas
Resumo:
Os sistemas de retenção utilizados em próteses totais sobre implante (sobredentaduras) tem sido discutidos ao longo das últimas décadas a fim de se obter uma padronização a respeito do tratamento clínico desses pacientes. Considerando o importante papel da estabilidade das próteses para a eficiência mastigatória, bem como para elaboração do plano de tratamento adequado, o objetivo deste estudo foi avaliar a estabilidade das próteses implantossuportadas e/ou implantorretidas, utilizando para isso um estudo in vitro que simulou a força de mordida. Materiais e Métodos: Foram testadas quatro tipo diferentes de próteses totais: 1) G1 Prótese Total Removível Convencional; 2) G2 - Próteses Total Removível sobre Implantes (Overdenture), retida pelo sistema ERA; 3) G3 Prótese Total Removível sobre Implantes (Overdenture), retida pelo sistema de Barra com clipes e Encaixes - ORCE; e 4) G4 - Prótese Total Fixa sobre Implantes, seguindo o protocolo Brånemark e utilizando o sistema de barras-distais da marca Neodent. Cada grupo foi submetido ao carregamento em pontos específicos, localizados sobre os elementos 16 (F=300N), 26 (F=300N) e na região anterior 11/21(F=100N). A aferição da estabilidade foi feita através da mensuração do deslocamento vertical da prótese durante o a aplicação da força e a distância do local do carregamento, sobre os elementos 16, 26 e na região anterior, nos elementos 11 e 21. Os dados passaram no teste de normalidade de Shapiro-Wilk e foram submetidos à análise de variância ANOVA e à comparação múltipla através do teste de Bonferroni (p<0.05) Resultados: O tipo de sistema utilizado influenciou na movimentação vertical da prótese na região posterior contralateral à aplicação de força, sendo a movimentação vertical G1 > G2 > G3 ≥ G4. Na movimentação vertical da prótese nos dentes anteriores, quando a força foi aplicada nos dentes posteriores (rotação para posterior), a movimentação vertical foi de G1 > G2 > G3 ≥ G4. Durante a rotação para posterior, quando a força foi aplicada nos dentes anteriores (rotação para anterior) e a movimentação medida nos dentes posteriores, o comportamento foi de G1 > G2 > G3 > G4. Conclusão: Em duas das três situações testadas não houve diferença estatística entre a movimentação vertical entre o G3 e o G4, sugerindo que a estabilidade da overdenture retida por barra com clipes e encaixes se comportou, em relação a estabilidade, semelhante a prótese fixa sobre implantes.
Resumo:
A modelagem orientada a agentes surge como paradigma no desenvolvimento de software, haja vista a quantidade de iniciativas e estudos que remetem à utilização de agentes de software como solução para tratar de problemas mais complexos. Apesar da popularidade de utilização de agentes, especialistas esbarram na falta de universalidade de uma metodologia para construção dos Sistemas Multiagentes (MAS), pois estas acabam pecando pelo excesso ou falta de soluções para modelar o problema. Esta dissertação propõe o uso de uma Ontologia sobre Metodologias Multiagentes, seguindo os princípios da Engenharia de Métodos Situacionais que se propõe a usar fragmentos de métodos para construção de metodologias baseados na especificidade do projeto em desenvolvimento. O objetivo do estudo é sedimentar o conhecimento na área de Metodologias Multiagentes, auxiliando o engenheiro de software a escolher a melhor metodologia ou o melhor fragmento de metodologia capaz de modelar um Sistema Multiagentes.
Resumo:
Este trabalho está inserido no campo da Geomática e se concentra, mais especificamente, no estudo de métodos para exploração e seleção de rotas em espaços geográficos sem delimitação prévia de vias trafegáveis. As atividades que poderiam se beneficiar de estudos desse tipo estão inseridas em áreas da engenharia, logística e robótica. Buscou-se, com as pesquisas realizadas nesse trabalho, elaborar um modelo computacional capaz de consultar as informações de um terreno, explorar uma grande quantidade de rotas viáveis e selecionar aquelas rotas que oferecessem as melhores condições de trajetória entre dois pontos de um mapa. Foi construído um sistema a partir do modelo computacional proposto para validar sua eficiência e aplicabilidade em diferentes casos de estudo. Para que esse sistema fosse construído, foram combinados conceitos de sistemas baseados em agentes, lógica nebulosa e planejamento de rotas em robótica. As informações de um terreno foram organizadas, consumidas e apresentadas pelo sistema criado, utilizando mapas digitais. Todas as funcionalidades do sistema foram construídas por meio de software livre. Como resultado, esse trabalho de pesquisa disponibiliza um sistema eficiente para o estudo, o planejamento ou a simulação de rotas sobre mapas digitais, a partir de um módulo de inferência nebuloso aplicado à classificação de rotas e um módulo de exploração de rotas baseado em agentes autônomos. A perspectiva para futuras aplicações utilizando o modelo computacional apresentado nesse trabalho é bastante abrangente. Acredita-se que, a partir dos resultados alcançados, esse sistema possa ajudar a reduzir custos e automatizar equipamentos em diversas atividades humanas.