55 resultados para Cálculos dentários

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Realizou-se a dedução de um formalismo básico, útil para o desenvolvimento de novas implementações semi-empíricas, partindo de primeiros princípios. A abordagem utilizada é inspirada nos métodos da família HAM, e visa possibilitar o desenvolvimento de uma implementação semi-empírica de última geração que não esteja sujeita às di culdades que ocorrem com métodos da família ZDO. São apresentadas as expressões para a energia total e para os elementos da matriz de Fock segundo este formalismo básico. O emprego de expoentes variáveis nas funções de base (orbitais atômicos) é proposto e modelado com esquemas tipo HAM/3, HAM/4 e polinomial, tomando-se como referência resultados obtidos por cálculo ab initio. Além disso, uma contribuição para produção de conjuntos de dados de referência por cálculo ab initio é fornecida. Esta contribuição permite que sejam produzidos resultados de alto nível para energias eletrônicas a um custo computacional moderado, por meio da extrapola- ção da energia de correlação eletrônica em cálculos com bases correlation consistent de Dunning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foi calculada teoricamente a radiação solar direta normal para Porto Alegre e vizinhanças. Para tal fim foi feito um levantamento da insolação horária em Porto Alegre, entre os anos de 1968 a 1982 e, a partir destes como não se dispunha de dados experimentais, calculou-se a radiação solar global efetiva, com o auxílio de uma expressão do tipo Angstrom. A posse destes dados permitiu calcular a radiação direta normal, que se apresenta em forma de tabelas e gráficas. Como um resultado adicional, calculou-se a percentagem de dias aproveitáveis ou não para distintas hipóteses de uso da Energia Solar. Com o intuito de comprovar a validade dos cálculos desenvolvidos, compararam-se os dados de radiação difusa, calculados a partir dos de direta normal, com os obtidos por outras teorias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta é uma pesquisa piagetiana clássica que se insere na trilha aberta por Emília Ferreiro na área da psicogênese da alfabetização. A questão central investigada é a de saber qual o conhecimento que os adultos nãoalfabetizados possuem do sistema de escrita. Foram entrevistados 35 sujeitos utilizando o método piagetiano de interrogatório clínico. o material empregado estava composto por cupom fiscal de supermercado, bilhete de loteria, calendário, conta de luz, receita médica, nota fiscal padrão, fotos do meio urbano, recortes de revistas, desenhos com legendas, impressos padronizados de anúncios (do tipo "vende-se" , "aluga-se", "é proibido fumar", Solicitava-se o reconhecimento de classificação de textos "legíveis", palavra e da oração, interpretação de textos acompanhados ou não de imagem, realização de cálculos mentais e produção de escrita. Verificou-se que, embora não haja ainda uma compreensão global do funcionamento do sistema alfabético de escrita, os adultos não-alfabetizados apresentam conceitos etc.), entre outros. letras e números, análise ao nível da emissão verbal, passando por aquele que atribui uma letra para cada macro-partição da emissão verbal (sílaba), até o mais aprimorado que detecta então os elementos mínimos da emissão (fonemas) e trata de fazer a correspondência entre letras e fonemas. Este último nível desvenda o modo pelo qual que correspondem a níveis progressivos de desenvolvimento cognitivo. Esses níveis vão desde aquele que ainda não estabeleceu um vínculo entre a escrita e a pauta sonora da pesquisas com crianças pré-alfabetizadas verifica-se que nas há uma identidade estrutural entre crianças e adultos na forma de se apropriar do conhecimento do modo de funcionamento da língua escrita. Os adultos não apresentam as noções mais primitivas manifestadas pelas crianças pois possuem uma boa distinção entre letras e números, Conquistaram a possibilidade de realizar cálculos mentais, compreendem melhor a importância das segmentações do texto, não agridam nomes semanticamente relacionados para interpretar "sobras de texto" na análise de orações, etc. A pesquisa contribui para um melhor entendimento do processo de aprendizagem da leitura e escrita e pode ser utilizada para uma analise crítica dos métodos pedagógicos tradicionais de alfabetizal;ão de adultos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Usando a técnica de Retroespalhamento Rutherford (RBS). no presente trabalho medimos a perda de energia e a flutuação estatística da perda de energia (straggling) como função da energia para íons de Li em alvos de silicio amorfo. Através do método dos marcadores. com amostras produzidas por implantação iônica e por epitaxia de feixe molecular,o poder de freamento foi medido em um intervalo de energia entre 250keV e 9MeV enquanto que o straggling foi determinado em um intervalo que foi de 450keV a 3MeV. Os resultados experimentais foram comparados com medidas prévias e com cálculos semi-empiricos realizados por Ziegler. Biersack e Littmark e por Konac et el., sendo encontrado um razoável acordo teórico-experimental. Foram também realizados cálculos baseados nos modelos teóricos de Aproximação por Convolução Perturbativa (PCA) e Aproximação por Convolução Unitária (UCA) propostos por Grande e Schiwielz O modelo PCA apresentou resultados aceitáveis para energias acima de 6MeV enquanto que os valores apresentados pelo divergem dos valores experimentais para energias abaixo de 2MeV. As medidas de straggling quando comparados com as predições da teoria de Bohr mostraram discrepâncias que foram entre 20% e 60%. Cálculos feitos com a aproximação para encontros binários (BEA) usando-se a secção de choque de Thompsom e a secção de choque proposta no trabalho de Vriens foram comparados com as medidas experimentais. Os resultados usando-se a secção de choque de Thompsom divergem por até 50%, enquanto que os valores calculados a secção de choque proposta por Vriens mostram uma concordância razoável para energias abaixo de 1MeV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conhecer o comportamento vibratório de rotores de máquinas rotativas, já durante a fase de projeto, é uma necessidade cada vez maior nos dias atuais, quando modificações corretivas, após o início da operação, já não são mais aceitáveis, devido aos altos custos de material e execução empregados, se comparados com os lucros que são cada vez mais reduzidos, em função das regras impostas pelo mercado, e devido também ao tempo necessário para tais modificações, que implica em manter a máquina parada, sem gerar lucros nesse penodo, acarretando em mu1tas contratuais para o fabricante. o presente trabalho visa dar subsídiosà análise dinâmicadas linhas de eixos de turbo e hidrogeradores (conjuntos formados pela turbina mais o gerador, usados respectivamentenas centraistermelétricase hidrelétricas). Inicialmente é feita uma breve explanação sobre formas construtivas de hidrogeradores e tipos de turbinas hidráu1icas utilizados atualmente. O trabalho prossegue apresentando as propriedades dos mancais com filme de óleo, os fenômenos do empuxo magnético no rotor do gerador e do efeito giroscópico, bem como a norma ISO 1940, que define os níveis admissíveis de desbalanceamentos residuais para rotores de máquinas É apresentada uma formulação matemática pelo Método das Matrizes de Transferência para as análises das vibrações livres, bem como das vibrações forçadas com carregamentos cíclicos devido aos desbalanceamentos residuais das linhas de eixos. A análise das vibrações livres é feita para a obtenção das fteqüências naturais torcionais e das fteqüências tlexionais críticas em um plano. A análise das vibrações forçadas é elaborada para fornecer as respostas dinâmicas em dois planos ortogonais, devido ao desbalanceamento residual. Para aplicação da metodologia de cálculo apresentada, são elaboradas rotinas computacionais de cálculos, utilizando como plataforma o software MATLAB. Para testar o Método das Matrizes de Transferência, bem como os programas de computador elaborados, faz-se algumas análises com soluções analíticas exatas e comparam-se resultados obtidos. Como aplicação prática, faz-se um estudo aprofundado dos comportamentos dinâmicos algumas linhas de eixos de hidrogeradores, para variações de configurações de construção dessas, bem como para as diversas condições de operação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho consiste em aplicar o método LTSn em cálculos de parâmetros críticos como Keff, espessura e concentração atômica e obtenção do fiuxo escalar, da potência específica e do enriquecimento do combustível em placa plana homogenea e heterogênea, considerando modelo multigrupo e em diversas ordens de quadraturas. O método LTSn consiste na aplicação da transformada de Laplace em um conjunto de equações~de ordenadas discretas gerado pela aproximação SN, resultando em um sistema de equações algébricas simbólicas dependentes do parâmetro complexo s e reconstrução dos fluxos angulares pela técnica de expansão de Heaviside. A aplicação do método LTSn reduz a soluçào de um problema de autovalor, a solução de uma equação transcedental, possibilitando a obtenção de parâmetros críticos. Simulações numéricas são apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho é uma análise experimental que procura investigar os efeitos dos fatores carga por eixo, pressão de inflação e tipo de pneu sobre o desempenho de pavimentos. Os dados e informações existentes sobre o quadro de cargas por eixo praticada pela frota de veículos pesados é razoável. A ação conjunta dos referidos fatores é ainda uma questão pouco explorada. Assim, para compensar a escassez de dados sobre pressão de inflação e tipo de construção de pneus utilizados na frota de carga, programou-se uma pesquisa de campo na rodovia estadual RS/240. As informações oriundas da pesquisa demonstram que há um acréscimo generalizado no valor da pressão dos pneus e um aumento de uso dos pneus de fabricação radial em relação aos pneus convencionais. Os dados de campo subsidiaram a programação de um experimento fatorial cruzado executado na Área de Pesquisas e Testes de Pavimentos da UFRGS/DAER. A variação dos níveis dos fatores deu-se através de um simulador linear de tráfego atuando sobre uma pista experimental com 20 m de comprimento por 3,5 m de largura. Tendo como resposta estrutural do pavimento a máxima deflexão superficial recuperável medida com uma viga Benkelmam, determinou-se como significantes os efeitos dos fatores carga por eixo e pressão de enchimento dos pneus. Os cálculos estatísticos indicam também que não há diferenças significativas entre os pneus tipo 9.00R20 e 9.00x20 e que todas interações não exercem efeitos significativos sobre a variável de resposta. Em seqüência, determinaram-se as áreas de contato do rodado duplo do simulador de tráfego com a superfície do pavimento ensaiado para as combinações dos níveis dos fatores. Pode-se, então, comparar área de contato medida com área circular calculada, considerada em muitos modelos de dimensionamento de pavimentos. Relacionou-se a variação da pressão de contato com a deflexão recuperável e procedeu-se uma comparação da mesma com a pressão de inflação nominal dos pneus. Apresenta-se um modelo de análise do desempenho do pavimento em função da carga por eixo e da pressão de inflação, nos limites do experimento. Os dados decorrentes do experimento viabilizaram a determinação dos Fatores de Equivalência de Cargas para os níveis dos fatores, considerando-se o pavimento ensaiado. Avaliou-se, via evolução das deflexões e dos Fatores de Equivalência de Cargas, a redução da vida do pavimento, obtendo-se, para a combinação de níveis mais críticos de carregamento, resultados significativos de até 88 % de redução. Propõe-se, por último, uma formulação para o Fator de Equivalência de Cargas que considere também a ação da pressão de inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A infecção das vias biliares é uma doença freqüente com alta morbidade e mortalidade, que pode variar de 10 a 60% dependendo de sua gravidade. A causa mais comum desta infecção é a presença de cálculos na via biliar principal que propicia o surgimento de bacteriobilia. O profundo conhecimento das características microbiológicas da bile nos casos de coledocolitíase e infecção das vias biliares são fundamentais para o melhor diagnóstico desta infecção e escolha da antibioticoterapia a ser instituída. Assim, o objetivo deste estudo foi de caracterizar os principais aspectos microbiológicos da bile dos pacientes com e sem coledocolitíase e avaliar sua importância na escolha dos antimicrobianos para o tratamento da infecção das vias biliares. Foram analisados 33 pacientes que foram divididos em um grupo de 10 pacientes sem coledocolitíase (grupo controle) no momento da Colangiografia Endoscópica (CPER) e em outro grupo de 23 pacientes com coledocolitíase. A bile de todos os pacientes foi coletada no início do procedimento endoscópico, através de catater introduzido na via biliar. O exame de microscopia direta com coloração de Gram e as culturas da bile foram negativas nos 10 pacientes que não apresentaram coledocolitíase durante a CPER. Dos 23 pacientes com cálculos na via biliar principal, 19 (83%) apresentaram culturas positivas. Desses 19 pacientes com culturas de bile positivas, 18 (94,7%) apresentaram microorganismos detectáveis à microscopia direta com coloração de Gram. Apenas um paciente apresentou crescimento de germe anaeróbio (Bacteroides fragilis). O cultivo de 28 bactérias teve predominância de microorganismos Gram negativos (18 bactérias- 64,3%). Os germes isolados foram E. coli (9, 32,1%), Klebsiella pneumoniae (5, 17,9%), Enterococcus faecalis (5, 17,9%), Streptococcus alfa-haemoliticus (3, 10,7%), Streptococcus viridans (2, 7,1%), Enterobacter cloacae (2, 7,1%), Panteona aglomerans (1, 3,6%) e Pseudomonas aeruginosa (1, 3,6%). Todos os pacientes com microorganismos detectados pela microscopia direta com coloração de Gram tiveram crescimento bacteriano em suas culturas, por outro lado nenhum paciente com cultura negativa apresentou microoorganismos à microsopia direta ( p= 0,0005). Nesses casos, a microsopia direta apresentou uma especificidade de 100% e sensibilidade de 80%. A análise quantitativa das culturas da bile mostrou que das 19 culturas positivas, 12 (63,2%) tiveram pelo menos um germe com contagem superior a 105 ufc/ml. Todas as bactérias Gram positivas isoladas foram sensíveis à ampicilina, da mesma forma que todas as Gram negativas foram sensíveis aos aminoglicosídeos. Os achados deste estudo demonstram uma boa correlação entre a microscopia direta da bile com coloração de Gram e os achados bacteriológicos das culturas da bile coletada por colangiografia endoscópica retrógrada. O esquema terapêutico antimicrobiano tradicionalmente empregado em nosso hospital, que inclui a combinação de ampicilina e gentamicina, parece ser adequado, pois apresenta eficácia terapêutica contra os principais microorganismos responsáveis pela infecção das vias biliares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação estuda o que as crianças fazem, para resolver as situações de cálculo, quando ainda permanecem utilizando a contagem por unidades, na adição, após quatro anos de escolaridade no Ensino Fundamental. A referência teórica básica é a Epistemologia Genética de Jean Piaget. Como referência prática, foram utilizados os Jogos Matemáticos Athurma. Foram realizados estudos de casos com quatro crianças da 4.ª série do Ensino Fundamental de uma escola pública de Porto Alegre. As crianças vivenciaram, individualmente, três jogos propostos. Foi realizada uma análise das situações de jogo, seguindo os princípios do método clínico piagetiano. A partir da análise dos Jogos Matemáticos Athurma, foi possível identificar três principais procedimentos responsáveis pela não utilização da unidade composta: primeiro, as crianças utilizam a contagem na seqüência, em vez de fazerem cálculos; segundo, elas não recuperam o resultado de jogadas anteriores; e, finalmente, as diferentes formas de resolver a adição de dezenas e unidades O trabalho realizado com jogos matemáticos mostrou claramente que, com o desenrolar das jogadas, é possível verificar onde as crianças apresentam dificuldades, o que na atividade escrita não é tão fácil de ser identificado. Os jogos podem ser considerados como um recurso que permite aos professores iniciar e orientar discussões que surgem, diariamente, na sala de aula. A partir desta pesquisa, proponho que os jogos matemáticos sejam utilizados pelos professores, para que possam identificar onde seus alunos apresentam dificuldades na Matemática e assim, possam intervir, sempre que necessário, auxiliando e orientando os seus alunos a compartilharem as interpretações individuais com o restante dos colegas. Agindo assim, os professores estarão contribuindo para que o conhecimento matemático seja construído com base nas ações físicas e mentais dos alunos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Combinando métodos computacionais da eletrostática e dinâmica molecular, este trabalho teve como objetivo descrever processos de solvatação em sistemas quimicamente importantes. Foram obtidas propriedades termodinâmicas necessárias para o entendimento do processo de solvatação. Estão descritos e testados modelos para descrever a interação soluto-solvente, possibilitando, assim, aprimorar a descrição físico-química dos processos de solvatação. Utilizaram-se programas desenvolvidos em nosso grupo e programas comerciais que permitem os cálculos de dinâmica molecular e química quântica. Uma nova abordagem para o cálculo de energia livre de solvatação foi desenvolvida proporcionando a obtenção acurada e eficiente dessa propriedade, dentro do enfoque da dinâmica molecular. Nessa nova abordagem, novas metodologias para a geração de cavidades moleculares foram propostas e avaliadas. As energias livres de solvatação obtidas estão em boa concordância com os valores experimentais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As estratégias de desenvolvimento utilizadas, nas últimas décadas, com o enfoque da Revolução Verde, afetaram de forma significava a capacidade de modificação dos ecossistemas pelo homem. A agricultura, sendo a principal forma de intervenção nos processos naturais, incorporou inovações tecnológicas que possibilitaram o aumento do rendimento de cultivos e criações. Ao mesmo tempo, estas inovações provocaram efeitos negativos, não previstos, no meio ambiente e nas condições sociais dos seres humanos. A emergência da expressão “Desenvolvimento Sustentável” é uma tentativa de conciliar o crescimento econômico, proporcionado pelo progresso técnico, com a justiça social e a preservação dos recursos naturais. Em virtude deste contexto, um novo desafio apresenta-se para os formuladores de políticas públicas e agentes que interferem nos processos de desenvolvimento: avaliar a sustentabilidade, ou seja, quantificar o que é mais ou menos sustentável em sistemas de produção agrícola. Esta investigação representa um esforço para definir uma metodologia capaz de orientar na seleção de indicadores de sustentabilidade, bem como de permitir a obtenção de índices de sustentabilidade em sistemas de produção. O objetivo central é propor uma metodologia que permita avaliar a sustentabilidade em sistemas de produção para facilitar a comunicação entre atores envolvidos em processos de desenvolvimento, no sentido de conduzir as intervenções dos mesmos para contextos de maior sustentabilidade nas dimensões social, econômica e ambiental. Para isto buscou-se uma metodologia com cálculos e operações simples, permitindo a obtenção de informações com recursos locais, sem a necessidade de avançados conhecimentos estatísticos de parte dos usuários, mas adaptadas à complexidade e às particularidades locais dos processos envolvidos nos sistemas de produção da agricultura familiar. Os resultados obtidos, quando comparados com outras metodologias, demonstram a viabilidade do uso do método proposto para a identificação de aspectos que conduzem os sistemas de produção estudados a contextos de maior ou menor sustentabilidade relativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No cenário atual, onde a globalização, aliada a um maior nível de exigência por parte do cliente, impõem às empresas um maior empenho por competitividade, a agdidade no desenvolvimento e otimização de produtos torna-se crucial para a sobrevivência das mesmas no mercado. Neste contexto, procurou-se compilar várias técnicas utilizadas em E n g e h dd Qd& em um método integrado para a Ot+o Expmmid de MWtwa. Essas técnicas fornecem resultados muito mais rápidos e econômicos do que a tradicional prática de variar um componente de cada vez na mistura, devido ao menor número de ensaios necessários. Entretanto, apesar de não serem tão recentes, as ferramentas aplicáveis à otimização de misturas não têm sido utilizadas pelo seu maior beneficiário (a indústria), provavelmente por falta de divulgação de sua existência, ou, principalmente, devido à complexidade dos cálculos envolvidos. Dessa forma, além do método proposto, desenvolveu-se também um sofiwa~q ue irnplementa todas os passos sugeridos, com o intuito de facilitar ainda mais a aplicação dos mesmos por pessoas não especializadas em técnicas estatísticas. Através do software (OptiMix), o método foi testado em uma situação real e em um estudo comparativo com um relato da literatura, a fim de testar sua validade, necessidade de adaptações e consistência dos resultados. A avaliaçio dos estudos de caso demonstrou que o método proposto fornece resultados coerentes com os de outras técnicas alternativas, com a vantagem de o usuário não precisar realizar cálculos, evitando assim, erros e agilizando o processo de otimização.