844 resultados para Otimização topográfica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O elevado grau de competição imposto pelo mercado tem gerado nas empresas uma maciça movimentação em busca de melhorias contínuas e radicais nos processos de produção. Desta forma, a busca e identificação de oportunidades de melhoria constitui-se em importante mecanismo de aumento do desempenho e potencial competitivo. No entanto, a sistematização deste procedimento/abordagem esbarra na complexidade das ferramentas conhecidas e atualmente disponíveis para aplicação rotineira na análise dos processos produtivos. Uma análise ou diagnóstico consistente exige, muitas vezes, a aplicação de diversas ferramentas, tornando o processo de identificação de oportunidades e implementação de melhorias exageradamente complexo e moroso. Este estudo identificou a real necessidade de desenvolvimento de uma abordagem eficaz e ao mesmo tempo mais simples de mapeamento das oportunidades de melhoria, propondo uma metodologia de análise de sistemas de produção baseada na utilização conjugada de duas clássicas ferramentas de diagnóstico: o mapeamento da cadeia de valor e o mecanismo da função produção. O estudo parte de uma revisão bibliográfica onde são abordados os principais conceitos concernentes ao processo de diagnóstico e melhoria de sistemas de produção, base para o desenvolvimento da metodologia proposta. O método é, a seguir, testado em um estudo de caso realizado junto a uma empresa fabricante de cores para pintura automotiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa foi realizada com o objetivo de otimizar as atividades de gerenciamento no desenvolvimento de novos produtos na AGCO, empresa fabricante de máquinas agrícolas, e em sua cadeia de fornecedores. A engenharia simultânea ou, mais amplamente, o gerenciamento simultâneo de projetos é um sistema para administração de projetos que permite encurtar o tempo de lançamento de um produto e, ao mesmo tempo, reduzir os gastos no projeto, atendendo às necessidades dos clientes-alvo. Pesquisadores do Massachussets Institute of Technology (MIT) Womack, Jones e Roos apresentaram em 1990 um estudo de cinco anos visando identificar quais as características desse sistema que contribuíam efetivamente para seu sucesso. Este estudo foi detalhado por Daniel Schrage, do Georgia Institute of Technology, que expandiu as quatro características básicas identificadas (líder forte, trabalho em equipe, comunicação eficiente, desenvolvimento simultâneo com fornecedores). Recentes estudos indicam que, além das conclusões dos estudos acima, três fatores são hoje preponderantes para o sucesso do gerenciamento simultâneo de projetos: comunicação, coordenação e colaboração. Esta pesquisa identifica as técnicas atualmente empregadas na AGCO e seus fornecedores e seus métodos de gerenciamento dos processos e pessoas, propondo ao final uma série de melhorias que permitirão a otimização deste sistema de gerenciamento de novos produtos. A coleta de informações foi feita através de entrevistas e envio de questionários a mais de 80 fornecedores da AGCO. A análise dos resultados da pesquisa nos leva à conclusão de que a AGCO e seus fornecedores podem aperfeiçoar seu sistema de gerenciamento de projetos, principalmente no item coordenação dos grupos técnicos e nas técnicas empregadas para avaliação de performance dos produtos. A aplicação dos métodos de desenvolvimento, e o envolvimento das pessoas estão em um patamar superior de performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo apresenta o desenvolvimento do modelo integrado de planejamento financeiro como uma peça gerencial de administração financeira. O modelo foi construído com o intuito de reunir e adaptar à realidade brasileira diferentes contribuições teóricas em uma estrutura única, através de uma sistematização de procedimentos e análises fundamentais que possibilitem o processo reflexivo e potencializem a capacidade analítica dos gestores financeiros. A esta estrutura foi acrescida a etapa “desenvolvimento e implementação”, onde há uma preocupação com as possíveis barreiras e oportunidades relacionadas à implementação na íntegra do modelo proposto. Posteriormente, foi verificada a aplicabilidade do modelo concebido em três empresas do setor alimentício, subsetor de candies, do Rio Grande do Sul. Para esta investigação, ligada à aplicação prática do planejamento financeiro nas empresas do setor analisado, foi empregada a pesquisa qualitativa, através do método de estudo de casos. O estudo evidenciou a insuficiente utilização de técnicas financeiras como instrumentos de suporte dos processos analítico e decisório, em especial do processo de planejamento financeiro, nas empresas analisadas. A investigação demonstra que o processo de planejamento financeiro tem ainda muito o que contribuir para uma otimização da gestão financeira das empresas estudadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

É muito difícil falar sobre aquecimento de água usando energia solar, sem falar em energia de apoio, ou auxiliar. Essa indispensável energia auxiliar, que pode ser eletricidade, gás ou um outro combustível qualquer, tem por objetivo substituir a energia solar nos dias nublados, ou complementá-la nos períodos de baixa radiação solar. Sua finalidade é manter um certo volume de água quente dentro das condições mínimas de temperatura para uso imediato. Essa energia, tão importante para a eficácia do sistema, tem sempre um custo agregado que deve ser considerado no projeto. A escolha do tipo de energia auxiliar recai justamente sobre a eletricidade por sua facilidade de controle e baixo investimento inicial. O custo da energia elétrica, contudo, é hoje alto o suficiente para que a fração elétrica no consumo de energia do sistema seja importante e passe a merecer mais atenção. Esta dissertação visa a estudar estratégias para minimizar o consumo de energia elétrica auxiliar. O trabalho foi desenvolvido através da simulação do atendimento de uma residência unifamiliar, habitada por cinco pessoas, com um consumo de água quente variável ao longo do dia e igual para todos os dias do ano. Empregou-se para as simulações de todos os casos estudados, o software TRNSYS em sua versão 14.2, (KLEIN, 1997) que demonstrou eficácia e coerência nos resultados obtidos Ao longo do trabalho foram simulados mais de setecentos casos, variando-se parâmetros como área de coletores, volume do reservatório, potência elétrica, dentre outros. Com os resultados obtidos nas simulações foram elaboradas tabelas e gráficos dos quais foi possível retirar algumas conclusões relevantes tais como a dependência do consumo de energia auxiliar com o volume do reservatório, número de coletores, potência da resistência de aquecimento e sua altura, bem como a altura do termostato. A partir dos resultados deste trabalho foi possível a elaboração de uma série de recomendações relativas a estudo e a projeto de sistemas de aquecimento solar de água quente para uso doméstico, visando à otimização na utilização do sistema de energia auxiliar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma análise das melhorias introduzidas no Processo de Desenvolvimento de Produtos (PDP) de uma empresa de calçados denominada Calçados Reifer Ltda. Estas melhorias foram aplicadas especificamente ao setor de Modelagem, que é o principal responsável por este desenvolvimento, objetivando sua otimização e a diminuição no parâmetro tempo de entrega do novo produto ao mercado. O processo de desenvolvimento dos novos modelos na indústria de calçados é estratégico, devido aos requisitos dos clientes relativos a este parâmetro serem progressivamente menores -especialmente para as companhias que produzem para exportação. Qualquer demora relativa à definição ou ao cumprimento das especificações de produto podem pôr em risco a competitividade da empresa. Assim, foi analisada a estrutura do PDP atual baseada nas referências teóricas, como as providas pelas ciências administrativas, e pela gestão do desenvolvimento de produtos e processos. A proposta de um processo aperfeiçoado e mais rápido, baseado em uma abordagem específica de gestão de recursos, introduzindo melhorias significativas na gestão do processo e na qualidade do produto final obtido, a par da agilização do processo, possibilitou a obtenção de melhorias no PDP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No cenário atual, onde a globalização, aliada a um maior nível de exigência por parte do cliente, impõem às empresas um maior empenho por competitividade, a agdidade no desenvolvimento e otimização de produtos torna-se crucial para a sobrevivência das mesmas no mercado. Neste contexto, procurou-se compilar várias técnicas utilizadas em E n g e h dd Qd& em um método integrado para a Ot+o Expmmid de MWtwa. Essas técnicas fornecem resultados muito mais rápidos e econômicos do que a tradicional prática de variar um componente de cada vez na mistura, devido ao menor número de ensaios necessários. Entretanto, apesar de não serem tão recentes, as ferramentas aplicáveis à otimização de misturas não têm sido utilizadas pelo seu maior beneficiário (a indústria), provavelmente por falta de divulgação de sua existência, ou, principalmente, devido à complexidade dos cálculos envolvidos. Dessa forma, além do método proposto, desenvolveu-se também um sofiwa~q ue irnplementa todas os passos sugeridos, com o intuito de facilitar ainda mais a aplicação dos mesmos por pessoas não especializadas em técnicas estatísticas. Através do software (OptiMix), o método foi testado em uma situação real e em um estudo comparativo com um relato da literatura, a fim de testar sua validade, necessidade de adaptações e consistência dos resultados. A avaliaçio dos estudos de caso demonstrou que o método proposto fornece resultados coerentes com os de outras técnicas alternativas, com a vantagem de o usuário não precisar realizar cálculos, evitando assim, erros e agilizando o processo de otimização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta uma metodologia de retroalimentação do ciclo de desenvolvimento de produtos, com ênfase na fase de projeto, a partir de dados obtidos em estudos de confiabilidade. A metodologia é proposta com base no escopo da norma QS-9000, norma esta que vem sendo utilizada por fornecedores e sub-fornecedores da indústria automobilística no mundo inteiro. Um estudo de caso permitiu que a metodologia fosse implementada em uma empresa certificada na norma. São aplicadas retroalimentações em ferramentas como Desdobramento da Função Qualidade (QFD), Análise dos Modos e Efeitos de Falha de Produto (DFMEA) e de Processo (PFMEA). Os resultados obtidos demonstraram que a metodologia de retroalimentação proposta é uma ferramenta útil na maturação de um produto, através da utilização dos dados de falhas em campo, bem como no momento do desenvolvimento de um produto novo, que irá suceder o atual, através da utilização da voz do cliente e dos dados de falha em campo de forma ordenada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação de mestrado trata do tema Total Productive Maintenance (TPM) ou Manutenção Produtiva Total (MPT). O principal objetivo é avaliar sua contribuição no gerenciamento das atividades de manutenção industrial e como uma ferramenta da engenharia de processos para otimização dos processos de manufatura. A avaliação foi realizada com base em estudo de caso onde o TPM foi implementado em uma empresa do ramo eletro - eletrônico localizada na cidade de Caxias do Sul - RS. O plano de implementação foi elaborado baseado em revisão bibliográfica, a qual considerou o pensamento de autores nacionais e internacionais bem como a adequação do TPM levando em consideração a cultura e a realidade do sistema produtivo da empresa. A parte prática do programa envolveu a aplicação dos conceitos e filosofias fundamentais do TPM no sistema produtivo da empresa. Os principais resultados mensuráveis obtidos com a implementação, foram: (1) a elevação do Índice de Rendimento Operacional Global (IROG) de 0,552 para 0,634, observado nas máquinas consideradas restrição do sistema produtivo do setor (gargalos), (2) a redução nas quebras de máquinas em aproximadamente 45 %, (3) a criação de um ambiente que incentiva a participação dos funcionários com sugestões de melhorias, atingindo 3,2 sugestões de melhorias por funcionário por ano e, (4) reduções de 12,6 % de energia elétrica, 40 % no consumo de água e 797 litros de óleo lubrificante por ano. Entre os beneficios não mensuráveis destacam-se a criação de um ambiente de trabalho limpo, organizado e seguro, a formação de operadores multifuncionais e a eliminação de atmosfera de confronto que existia entre a operação e a manutenção. O estudo de caso também mostrou que o comprometimento da alta direção é fator fundamental para o sucesso do TPM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta a Modelagem Estocástica de Sistemas Hierárquicos de Estoques (SHEs) como um instrumento de uso gerencial, orientado para a maximização do nível de serviço oferecido aos consumidores finais e a minimização do nível global de estoques em uma cadeia de abastecimento. Tal modelagem envolve otimização de sistemas não-lineares com integrais indefinidas, normalmente tratados através de simulação, dada a impossibilidade de estabelecer uma solução analítica para o problema. Neste trabalho, diferentemente, a solução é obtida através da otimização do sistema, a partir de uma modelagem que estabelece os níveis de estoque-alvo, os pontos de reposição de estoques, os níveis de serviço oferecidos aos consumidores finais e o nível ótimo global de estoques. A sua operacionalização utiliza um aplicativo computacional, projetado e desenvolvido especificamente para este fim. Estruturas hierárquicas, quando otimizadas localmente, em cada um de seus níveis, podem apresentar resultados subótimos em nível global. Assim, não é suficiente identificar os ótimos locais para compor uma solução otimizadora para o sistema. Para resolver esse problema, a maior parte dos pesquisadores utiliza simulação. A qualidade das soluções assim obtidas geralmente é inferior à qualidade da solução obtida mediante otimização global do sistema A presente modelagem tem como objetivo gerar soluções mais qualificadas para o problema da otimização de SHEs. Nesta dissertação, as principais abordagens para otimização de SHEs são apresentadas e analisadas, com destaque para o trabalho de Rosenbaum (1981), cujos resultados, obtidos através de simulação, são comparados com os resultados deste trabalho.