10 resultados para Simplicity

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enquanto os métodos tradicionais de processamento de restaurações cerâmicas tornaram-se notórios por sua complexidade, as técnicas mais modernas vêm privilegiando a simplicidade de execução e a automação. Dentre estas, destaca-se a injeção em moldes, que recentemente, foi associada a métodos CAD-CAM. Estudos anteriores demonstraram a viabilidade de utilização de um vidro feldspático de baixa expansão térmica, Alpha (Vita Zahnfabrik), para injeção, porém, faltam informações quanto às propriedades mecânicas e a microestrutura deste material quando submetido à injeção. Os objetivos deste estudo são: produzir pastilhas vidrocerâmicas para injeção a quente a partir de Alpha e da mistura deste vidro com partículas de alumina e zircônia; avaliar a resistência à flexão dos materiais processados, e compará-la a um material compatível existente no mercado (PM9 - Vita Zahnfabrik); estudar a estrutura microscópica dos materiais e correlacioná-la com suas propriedades mecânicas; identificar por meio de difração de raios X a formação de fases cristalinas durante as diferentes etapas de processamento. A injeção aumentou a resistência do vidro Alpha devido à redução na quantidade e tamanho dos defeitos internos, principalmente porosidades. Apesar de ter sido observada nucleação de cristais nos dois materiais, durante o processamento, não foi possível determinar de que forma este fenômeno afetou as propriedades mecânicas dos materiais. Não foi detectada alteração no padrão de distribuição das fases cristalinas observadas em microscópio eletrônico de varredura antes e depois da injeção. Não foi verificada diferença estatística significante entre a resistência à flexão de Alpha injetado e PM9. A adição de partículas de alumina e zirconia ao vidro Alpha provocou redução da resistência, devido à formação de aglomerados durante a confecção das pastilhas e a incapacidade da injeção em dispersá-los. Tais aglomerados funcionaram como concentradores de tensões, enfraquecendo o material.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A geotecnia constitui uma disciplina relativamente recente na área da engenharia civil, e dessa disciplina faz parte um capítulo ainda menos estudado que trata de fundações submetidas a esforços de tração. O presente trabalho deriva do conjunto de provas de cargas realizado para um importante projeto de linhas de transmissão que permitiu a aferição da teoria de capacidade de carga à tração da Universidade de Grenobel, cujos estudos comparativos mostram bons resultados para fins de aplicações práticas. De posse da extensa documentação técnica produzida e documentada por esse estudo foi possível comparar os resultados obtidos pelas provas de cargas e os resultados teóricos com os resultados das modelagens 2D axisimetricas por elementos finitos. Além dessas análises, foi possível verificar a variação da resistência à tração através de análises paramétricas realizadas a partir da variação da coesão e do ângulo de atrito. Os estudos apresentados reafirmam a confiabilidade das teorias da Universidade de Grenoble, que contemplam a simplicidade desejada às aplicações de cunho prático, com resultados satisfatórios em relação àqueles obtidos nos ensaios de tração. Por outro lado, as análises paramétricas realizadas indicaram a tendência de comportamento que a resistência à tração deve apresentar para diferentes parâmetros do solo. O conhecimento dessas tendências permite ao projetista avaliar os fatores de segurança sob ponto de vista probabilístico, ou seja, permite o emprego de fatores de segurança com o conhecimento da probabilidade de ruína associada. As análises probabilísticas foram traçadas a partir do emprego de funções genéricas de várias variáveis no formato FOSM (First Order Second Moment) que fornecem soluções aproximadas para o cálculo de desvio padrão quando não existe uma amostragem representativa. Ao término das análises, obteve-se como resultado, o mapa comparativo da probabilidade de ruína para os mesmos fatores de segurança empregados com base em resistências estimadas através de diferentes métodos de cálculos (Universidade de Grenoble e modelagem computacional).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Lagoa de Marapendi é uma lagoa eutrófica do complexo lagunar de Jacarepaguá, Rio de Janeiro. Como conseqüência ao constante e acelerado processo de eutrofização vigente, houve uma mudança na estrutura de sua comunidade fitoplanctônica, o que pode ter um importante significado para diversos componentes do ecossistema, além de inviabilizar diversos usos. Este estudo visou reconhecer os padrões espaciais e temporais do fitoplâncton, identificando os fatores controladores e direcionadores da comunidade, através da comparação entre as abordagens dos grupos taxonômicos e dos grupos funcionais. Foram coletadas amostras mensais em 4 pontos ao longo da lagoa no decorrer do ano de 2008. A análise florística revelou a presença de 45 táxons pertencentes às classes Cyanophyceae, Cryptophyceae, Chlorophyceae, Bacillariophyceae e Dinophyceae. Estes foram alocados em 10 grupos funcionais (GF) sensu Reynolds (H1, K, M, S1, X1, X2, J, C, MP e Y) e em 6 grupos funcionais baseados na morfologia (MBFG). Os dados de biomassa para todas as abordagens testadas foram comparados, juntamente com as variáveis abióticas, através de análises multivariadas de redundância (RDA). A abordagem de GF mostrou ser mais rica em detalhes, evidenciando diferentes estratégias adaptativas de grupos ecológicos de cianobactérias. Contudo, para ambientes eutróficos, rasos e com poucas espécies, tal qual a Lagoa de Marapendi, a utilização da abordagem de MBFG mostra ser mais adequada devido à sua simplicidade de utilização, aliada à boa capacidade de explicação da dinâmica fitoplanctônica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação objetiva a verificação do desempenho dos ensaios do tipo CRS, com velocidade controlada, quando comparados aos ensaios de adensamento oedométricos convencionais, SIC. O ensaio SIC é executado em vários estágios de carga, cada qual com vinte e quatro horas de duração e razão unitária entre o incremento de tensão e a tensão anterior, requerendo um prazo total de cerca de 10 dias para sua execução. Já o ensaio de adensamento com velocidade controlada, CRS, tem sua duração bastante reduzida, o que levou diversos pesquisadores da área de Geotecnia a concentrarem esforços no estudo de seu desempenho, visando sua utilização mais ampla. Para este estudo foi adquirido equipamento da empresa Hogentogler Inc., designado por GeoStar. Sua instalação, montagem e calibração foram realizadas no Laboratório de Mecânica dos Solos. Foram executados ensaios em corpos de prova obtidos de amostras de caulim, preparadas em laboratório, e também em amostras de solos originários de dois depósitos de diferentes regiões no Estado do Rio de Janeiro: baixada de Jacarepaguá e Itaboraí. A dissertação procurou detalhar a execução dos ensaios, as dificuldades da interpretação das planilhas originadas pelo sistema de aquisição de dados, acoplado ao equipamento GeoStar, as mudanças efetuadas, as ocorrências não previstas, a análise e interpretação dos resultados e a comparação dos parâmetros obtidos com os ensaios SIC e CRS. Procurou-se estudar o efeito da velocidade de deformação, histórico de tensões, qualidade dos corpos de prova, parâmetros do ensaio, facilidade de execução e desempenho. Verificou-se a simplicidade, rapidez e o desempenho satisfatório do ensaio CRS. Sugere-se estender estudos semelhantes a outros locais e, principalmente, a amostras de qualidade superior, na expectativa de confirmar as conclusões detalhadas nesta pesquisa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo civil precisa de ordem, simplicidade e eficiência para atingir o seu escopo de prestação de uma tutela jurisdicional adequada, justa e célere. Para tanto, o ordenamento processual tem sofrido relevantes modificações com o objetivo de se adaptar às novas exigências sociais e jurídicas, em que o formalismo deve servir para proteger, e não para derrubar. Além disso, variadas técnicas processuais têm sido utilizadas para conferir mais efetividade à tutela jurisdicional, sem prejuízo da necessária segurança jurídica. Nesse contexto se insere a ordem pública processual, que embora possa ter uma interessante abordagem principiológica, atua no processo como técnica de controle da regularidade de atos e do procedimento. Por sua vez, o papel do magistrado na gestão dessa técnica se mostra fundamental para ela atinja seu objetivo, que é eliminar do processo os defeitos capazes de macular a sua integridade, bem como a legitimidade da tutela judicial. O controle adequado e tempestivo da regularidade dos atos e do procedimento é um dever do juiz e também uma garantia das partes. Dessa forma, a tese busca identificar as questões processuais passíveis de controle, de acordo com o grau de interesse público que cada uma revela, sendo certo que a lei, a doutrina e a jurisprudência servem de fonte e ainda podem modular a relevância da matéria conforme tempo e espaço em que se observam. Por sua vez, a importância da avaliação do interesse público de cada questão processual reflete no regime jurídico que será estabelecido e as consequências que se estabelecem para os eventuais defeitos com base nas particularidades do caso concreto. Ademais, identificada a irregularidade, o processo civil oferece variadas técnicas de superação, convalidação e flexibilização do vício antes de se declarar a nulidade de atos processuais ou de se inadmitir o procedimento adotado pela parte, numa forma de preservar ao máximo o processo. Já no âmbito recursal, embora haja requisitos específicos de admissibilidade, os vícios detectados em primeiro grau de jurisdição perdem força em segundo grau e perante os Tribunais Superiores, haja vista a necessidade casa vez maior de se proporcionar ao jurisdicionado a entrega da prestação jurisdicional completa, ou seja, com o exame do mérito. Registre-se, ainda, a possibilidade de controle judicial nos meios alternativos de resolução de conflitos, uma vez que também devem se submeter a certos requisitos, para que sejam chancelados e legitimados. Como se observa, a abrangência do tema da ordem pública processual faz com que o ele seja extenso e complexo, o que normalmente assusta os operadores do direito. Portanto, o intento deste estudo é não só descrever o assunto, mas também adotar uma linguagem diferenciada, proporcionando uma nova forma de abordar e sistematizar o que ainda parece ser um dogma em nosso sistema processual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O clareamento dental se tornou um dos tratamentos estéticos mais realizados nos consultórios odontológicos, devido à simplicidade técnica e popularização através da mídia. Consiste na utilização de géis à base de peróxido de carbamida, peróxido de hidrogénio e, em uma menor escala, de perborato de sódio, com intuito de oxidar moléculas responsáveis pela pigmentação da estrutura dentária. Apesar da grande quantidade de estudos sobre o tema, não se sabe os efeitos do uso excessivo desses agentes sobre a estrutura dentária. O objetivo deste estudo foi avaliar os efeitos sobre a rugosidade superficial e conteúdo mineral do esmalte dental humano submetido a regimes de sobreclareamento associados ao uso de géis clareadores caseiros: peróxido de carbamida 10% (Opalescence PF Regular 10%, Ultradent do Brasil Produtos Odontológicos Ltda., Indaiatuba, São Paulo), peróxido de hidrogênio 9,5% (DayWhite 9,5%, Discus, LLC Culver City, EUA), bem como tiras clareadoras (Oral-B WhiteStrips, Anderson Packaging, Rockford, Estados Unidos). Quatro fragmentos de esmalte obtidos a partir de cinco dentes foram submetidos a um diferente tratamento: Grupo I - armazenamento em saliva artificial por oito semanas; Grupo 2 oito semanas de tratamento com gel de peróxido de carbamida 10% por 6 horas diárias; Grupo 3 oito semanas de tratamento com gel de peróxido de hidrogênio 9,5% com duas aplicações diárias de 30 minutos; Grupo 4 oito semanas de tratamento com tiras clareadoras duas aplicações diárias de 30 minutos. A alteração no conteúdo mineral foi avaliada semanalmente em seis pontos de cada fragmento devidamente identificados através de um sistema de coordenadas (X, Y e Z) utilizando-se a técnica de fluorescência de raios X (Artax 200). Alterações na rugosidade superficial das amostras também foram avaliadas através de um rugosímetro 3D (FormTalysurf 60, Taylor Leicester, Reino Unido). Apenas o grupo 3 apresentou diferenças estatísticas significativas com relação aos níveis de rugosidade (p<0,05), porém não consideradas como clinicamente significativos. Para os demais tratamentos e intervalos propostos, não foram encontradas diferenças estatisticamente significativas (p>0,05). Desse modo, não houve alterações compatíveis com um processo de desmineralização ou aumento real da rugosidade da superfície. Nas condições desse estudo in vitro os géis clareadores caseiros foram considerados seguros. São necessários novos estudos in situ e in vitro que analisem os efeitos de regimes de sobreclareamento quando em condições de somatório de desafios intra-orais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As rodovias podem representar um importante fator na fragmentação de habitat para espécies silvestres adaptadas a habitats de alta complexidade estrutural, como as florestas tropicais. As estradas reduzem a conectividade da paisagem e a capacidade da população regional em habitar todas as áreas adequadas e estes efeitos são mais significativos nas espécies que evitam a estrada, que são, muitas vezes, espécies de interior de florestas. A magnitude dos efeitos de barreira dependerá do comportamento e mobilidade destas espécies. Quando as estradas representam ralos (sink) ou barreiras para as populações, devido, respectivamente, aos atropelamentos ou à repulsa, medidas mitigadoras são indicadas para aumentar a conectividade entre as manchas de habitat separadas por essas estradas. A qualidade do habitat é um fator que deve ser considerado, mesmo com baixas frequências de atropelamentos nesses locais. O objetivo desse estudo foi propor dois métodos de seleção de áreas prioritárias para implantação de medidas mitigadoras dos efeitos das estradas sobre espécies de vertebrados florestais: Seleção Hierárquica Multivariada e Seleção Bivariada. A área de estudo foi o bioma Mata Atlântica, sendo recortado em paisagens hexagonais em três escalas diferentes (10.000, 1.000 e 100 km), usando a extensão Repeating Shapes no programa ArcGIS 9.3. Em cada hexágono foram calculados: área de floresta e de Unidade de Conservação, densidade de estradas e de hidrografia. Apenas os hexágonos cobertos por no mínimo 45% pela Mata Atlântica, com mais de 50% de cobertura florestal e mais de 1% de Unidades de Conservação foram incluídos nas análises. Após esta seleção, no método Seleção Hierárquica Multivariada, foi feita uma análise de componentes principais (PCA) com as quatro variáveis medidas, para cada escala separadamente. Os hexágonos foram então ordenados segundo o posicionamento deles no 1 Eixo da PCA de forma hierárquica e da maior para menor escala de hexágonos. Para área de estudo o método de Seleção Bivariada foi construído um gráfico de pontos, para cada escala de hexágono, com as variáveis cobertura florestal e rios. Foram selecionados os hexágonos que estavam localizados no quadrante do gráfico que representasse maior densidade de rios e maior porcentagem de cobertura florestal. Posteriormente foi feita uma simulação para avaliar se os métodos eram capazes de recuperar escores tão alto quanto a ordenação seguindo apenas o posicionamento dos hexágonos no Eixo 1 da PCA, sem uma análise hierárquica. O método de Seleção Hierárquica Multivariada foi mais eficiente para escolha de áreas prioritárias do que a Seleção Bivariada tanto para a escala intermediária (1.000 km) quanto para a menor escala (100 km). Os cinco hexágonos de 100 km mais prioritários estão localizados em São Paulo e Paraná, abrangendo quatro UCs (PARES de Jacupiranga, APA de Guaraqueçaba, APA Cananéia- Jacuípe e PARES da Ilha do Cardoso). Devido à simplicidade e fácil aplicabilidade do método, acredita-se que este pode ser uma opção interessante para escolha de áreas prioritárias para implantação de medidas mitigadoras dos efeitos de estradas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Jogos educacionais constituem em uma importante ferramenta de ensino na área de Engenharia de Software, onde, muitas vezes, os alunos não passam por nenhum mecanismo de treinamento prático. Um jogo educacional de qualidade tem que ter objetivos educacionais bem definidos, motivar os alunos e efetivar a aprendizagem dos conteúdos. A aplicação de jogos no Ensino de Engenharia de Software deve ser realizada de forma sistemática e controlada com base em avaliação. A técnica Estatística de Experimentação permite a medição e a análise das variáveis envolvidas no processo de aplicação de jogos para que estes possam ser aplicados com qualidade. Para definir melhor os experimentos no uso de jogos para o ensino de Engenharia de Software, este trabalho propõe diretrizes para o planejamento de experimentos em jogos educacionais, de forma que permita verificar a influência e a significância da utilização desses jogos no ensino e aprendizado dos conceitos de Engenharia de Software. Um experimento com o SimulES-W foi realizado seguindo essas diretrizes, onde foi possível ser demonstrada sua aplicabilidade e simplicidade em sua definição. A experiência de uso do SimulES-W mostra que aprender com jogos de computador é divertido, interativo e que, apesar dos resultados obtidos não serem significativos estatisticamente, de certa forma contribui para o ensino da Engenharia de Software, não sendo necessariamente um conhecimento prévio do conteúdo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa refere-se ao desenvolvimento de um novo sistema triagem ou classificação de risco para os serviços de urgências e emergências pediátricas e ao estudo de validade e confiabilidade deste instrumento. O primeiro tópico trata de conceitos e fundamentos relacionados à triagem e evidencia a complexidade do tema em vários aspectos. O segundo tópico apresenta as justificativas para o desenvolvimento de um novo sistema de classificação de risco para o contexto de saúde brasileiro, diante das inadequações de se adotar sistemas idealizados em países com desenvolvimento econômico, social e cultural diversos. O terceiro tópico apresenta os objetivos da pesquisa: rever o estado da arte em relação à validade e confiabilidade de sistemas de triagem em crianças, descrever o desenvolvimento de um sistema brasileiro de classificação de risco para urgências e emergências pediátricas e estudar a validade e confiabilidade do novo instrumento. O quarto tópico é uma revisão sistemática da literatura sobre a validade e confiabilidade dos sistemas de triagem utilizados na população pediátrica. Localizaram-se estudos sobre sete sistemas de triagem desenvolvidos no Canadá, Reino Unido, EUA, Austrália, Escandinávia e África do Sul. Constatou-se a dificuldade de se comparar o desempenho de diferentes instrumentos, devido à heterogeneidade dos desfechos, das populações e dos contextos de saúde estudados. O quinto tópico descreve o processo de desenvolvimento de um instrumento brasileiro de classificação de risco em pediatria, CLARIPED, a partir do consenso entre especialistas e pré-testes. Justificou-se a escolha da Escala Sul Africana de Triagem como referência, pela sua simplicidade e objetividade e pela semelhança socioeconômica e demográfica entre os dois países. Introduziram-se várias modificações, mantendo-se a mesma logística do processo de triagem em duas etapas: aferição de parâmetros fisiológicos e verificação da presença de discriminadores de urgência. O sexto tópico se refere ao estudo prospectivo de validade e confiabilidade do CLARIPED no setor de emergência pediátrica de um hospital terciário brasileiro, no período de abril a julho de 2013. Uma boa validade de construto convergente foi confirmada pela associação entre os níveis de urgência atribuídos pelo CLARIPED e os desfechos evolutivos utilizados como proxies de urgência (utilização de recursos, hospitalização, admissão na sala de observação e tempo de permanência no setor de emergência). A comparação entre o CLARIPED e o padrão de referência mostrou boa sensibilidade de 0,89 (IC95%=0,78-0,95) e especificidade de 0,98 (IC95%=0,97-0,99) para diagnosticar elevada urgência. A confiabilidade interobservadores, resultou num kappa ponderado quadrático substancial de 0,75 (IC95%: 0,74-0,79). O sétimo e último tópico tece considerações finais sobre dois aspectos: a insuficiência de evidências científicas sobre os sistemas de triagem na população pediátrica e a oportunidade e relevância de se desenvolver um sistema brasileiro de classificação de risco para urgências e emergências pediátricas, válido e confiável, com possibilidades de adoção em âmbito nacional.