847 resultados para Otimização combinatoria


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos a economia mundial e a economia brasileira têm sofrido mudanças importantes. Fusões e aquisições estratégicas têm se multiplicado na busca de estratégias para a competitividade envolvendo a integração de todas as atividades na agregação de valor que seja percebido pelo cliente. No presente trabalho, a adoção do planejamento e do gerenciamento do processo logístico pode tornar-se uma ferramenta competitiva para a efetiva sustentação de estratégias na busca de novos mercados e novos objetivos de negócios. Sendo uma das competências necessárias para criar valores para o cliente a logística evolui da sua base conceitual, para a obtenção da vantagem competitiva e parte fundamental da estratégia empresarial. O objetivo desta dissertação é caracterizar e analisar o processo de gestão da cadeia logística e a de suas atividades nos processos como fator competitivo e de estratégia empresarial em uma agroindústria. A pesquisa é de caráter exploratório através de um estudo de caso e busca-se como resultado uma análise acerca de estratégias para a competitividade e do seu relacionamento logístico, sua estrutura e mudanças, tendo como base para o levantamento desses dados e análise, o modelo desenvolvido por BOWERSOX (1989). Como conclusão tem-se uma mostra de como os conceitos de logística têm uma função muito mais relacional e estratégica nas estruturas das organizações dentro de um contexto competitivo. O uso maciço da tecnologia, a otimização, o oportunismo e a eficiência nas habilidades de gerenciamento das estratégias logísticas e na integração funcional como elementos prioritários tem como objetivo criar valor – em lucratividade e retorno sobre o investimento - tanto para a empresa como para o seu cliente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pneumonia nosocomial é a principal causa de infecção nosocomial em unidades de tratamento intensivo e possui alta morbi/mortalidade. A incidência cumulativa varia, conforme os autores, entre limites amplos desde 8% até 51%, dependendo do tipo de paciente e do uso de instrumentação das vias respiratórias. Nos casos específicos das pneumonias de má resolução e da pneumonia associada à ventilação mecânica, o diagnóstico é problemático devido à ausência de uma padronização definitiva, decorrente não só da grande variabilidade fisiopatológica como também da pouca acurácia dos critérios clínicos, microbiológicos e radiológicos. Estes fatos ensejaram a utilização progressiva de técnicas invasivas sofisticadas para coleta de amostras respiratórias endobrônquicas. Entretanto, a validação dessas técnicas para uso sistemático depende ainda de estudos que avaliem não só o seu custo/benefício em cenários clínicos diversos como também a comparação de seu desempenho para o diagnóstico com um padrão-ouro histopatológico. Além disso, o rendimento das técnicas invasivas é freqüentemente limitado quando são aplicadas em pacientes sob antibioticoterapia, que constituem a maioria dos casos em unidades de cuidados intensivos. A otimização desses testes, discutindo suas indicações e avaliando sua capacidade técnica para a confirmação ou exclusão de pneumonia, é justificada pela necessidade da instituição precoce e correta do tratamento, pois disto resulta menor mortalidade, redução de custos e permanência no hospital. Entre os testes que podem auxiliar no diagnóstico encontra-se o exame direto do lavado broncoalveolar, que proporciona resultados precoces e úteis para a tomada de decisão, mas não suficientemente testados em diferentes situações clínicas ou experimentais. Com o objetivo de avaliar o rendimento diagnóstico do exame direto precoce e das culturas quantitativas obtido por lavado broncoalveolar, estudou-se sua utilização em um modelo experimental de pneumonia provocada através de inoculação bacteriana intrabrônquica em ratos. O estudo comparou a acurácia do exame direto e dos exames culturais em três grupos de animais: Grupo A com pneumonia pneumocócica (37 animais); Grupo P com pneumonia por P. aeruginosa (26 animais) e Grupo B controle (10 animais), utilizando a histopatologia dos pulmões como teste de referência para o diagnóstico. Os Grupos A e P foram ainda randomizados em dois subgrupos cada, para tratamento ou não com antibióticos, usando penicilina no grupo pneumococo e amicacina no grupo Pseudomonas. Como resultado, observou-se que nos animais com pneumonia e ausência de antibióticos a pesquisa de bactéria fagocitada (BIC) no exame direto mostrou um rendimento elevado para o diagnóstico, sendo superior ao das culturas quantitativas. No grupo com pneumonia pneumocócica a BIC mostrou: S:94,4% a 100%, E:100%, VPP:100% e VPN:100%; e as culturas quantitativas mostraram: S:77,8%, E:100%, VPP:100%, VPN:40%. Nos com pneumonia por Pseudomonas a BIC obteve: S: 69%, E:100%; VPP:100% e VPN:71,4%); e as culturas quantitativas mostraram valores muito baixos: S:28,6%, E:100%, VPP:100% e VPN:50%). Nos animais com pneumonia pneumocócica sob tratamento antibiótico havia uma queda acentuada de sensibilidade das culturas quantitativas (S:21%) e, em menor grau da BIC (S:57,9%), mas sem perda da especificidade de ambos os exames. Ao contrário, nos animais com pneumonias por Pseudomonas sob tratamento não havia alteração no rendimento dos dois exames, cujos resultados foram semelhantes aos dos animais sem tratamento. Não havia diferenças de leitura da BIC para o diagnóstico, contando a sua positividade em macrófagos ou em neutrófilos infectados. A avaliação global dos casos estudados, reunindo todos os grupos (tratados e não-tratados) em ambos os modelos de pneumonia, mostrou que a acurácia do exame direto, representado pela pesquisa da BIC, foi superior (66%) ao das culturas quantitativas (53%). As conclusões principais do estudo foram: 1) o exame direto do lavado broncoalveolar (LBA) mostrou-se um teste útil e de alto rendimento para o diagnóstico de pneumonia quando realizado na ausência de antibióticos; 2) o LBA feito na vigência de antibióticos efetivos para a pneumonia perde mais de 50% de sua acurácia, mas não é afetado quando o antibiótico for ineficaz ou houver resistência ao mesmo; 3) a pesquisa de BIC no LBA é um exame de resultado precoce, de alta especificidade e com melhor rendimento do que as culturas quantitativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O elevado grau de competição imposto pelo mercado tem gerado nas empresas uma maciça movimentação em busca de melhorias contínuas e radicais nos processos de produção. Desta forma, a busca e identificação de oportunidades de melhoria constitui-se em importante mecanismo de aumento do desempenho e potencial competitivo. No entanto, a sistematização deste procedimento/abordagem esbarra na complexidade das ferramentas conhecidas e atualmente disponíveis para aplicação rotineira na análise dos processos produtivos. Uma análise ou diagnóstico consistente exige, muitas vezes, a aplicação de diversas ferramentas, tornando o processo de identificação de oportunidades e implementação de melhorias exageradamente complexo e moroso. Este estudo identificou a real necessidade de desenvolvimento de uma abordagem eficaz e ao mesmo tempo mais simples de mapeamento das oportunidades de melhoria, propondo uma metodologia de análise de sistemas de produção baseada na utilização conjugada de duas clássicas ferramentas de diagnóstico: o mapeamento da cadeia de valor e o mecanismo da função produção. O estudo parte de uma revisão bibliográfica onde são abordados os principais conceitos concernentes ao processo de diagnóstico e melhoria de sistemas de produção, base para o desenvolvimento da metodologia proposta. O método é, a seguir, testado em um estudo de caso realizado junto a uma empresa fabricante de cores para pintura automotiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa foi realizada com o objetivo de otimizar as atividades de gerenciamento no desenvolvimento de novos produtos na AGCO, empresa fabricante de máquinas agrícolas, e em sua cadeia de fornecedores. A engenharia simultânea ou, mais amplamente, o gerenciamento simultâneo de projetos é um sistema para administração de projetos que permite encurtar o tempo de lançamento de um produto e, ao mesmo tempo, reduzir os gastos no projeto, atendendo às necessidades dos clientes-alvo. Pesquisadores do Massachussets Institute of Technology (MIT) Womack, Jones e Roos apresentaram em 1990 um estudo de cinco anos visando identificar quais as características desse sistema que contribuíam efetivamente para seu sucesso. Este estudo foi detalhado por Daniel Schrage, do Georgia Institute of Technology, que expandiu as quatro características básicas identificadas (líder forte, trabalho em equipe, comunicação eficiente, desenvolvimento simultâneo com fornecedores). Recentes estudos indicam que, além das conclusões dos estudos acima, três fatores são hoje preponderantes para o sucesso do gerenciamento simultâneo de projetos: comunicação, coordenação e colaboração. Esta pesquisa identifica as técnicas atualmente empregadas na AGCO e seus fornecedores e seus métodos de gerenciamento dos processos e pessoas, propondo ao final uma série de melhorias que permitirão a otimização deste sistema de gerenciamento de novos produtos. A coleta de informações foi feita através de entrevistas e envio de questionários a mais de 80 fornecedores da AGCO. A análise dos resultados da pesquisa nos leva à conclusão de que a AGCO e seus fornecedores podem aperfeiçoar seu sistema de gerenciamento de projetos, principalmente no item coordenação dos grupos técnicos e nas técnicas empregadas para avaliação de performance dos produtos. A aplicação dos métodos de desenvolvimento, e o envolvimento das pessoas estão em um patamar superior de performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo apresenta o desenvolvimento do modelo integrado de planejamento financeiro como uma peça gerencial de administração financeira. O modelo foi construído com o intuito de reunir e adaptar à realidade brasileira diferentes contribuições teóricas em uma estrutura única, através de uma sistematização de procedimentos e análises fundamentais que possibilitem o processo reflexivo e potencializem a capacidade analítica dos gestores financeiros. A esta estrutura foi acrescida a etapa “desenvolvimento e implementação”, onde há uma preocupação com as possíveis barreiras e oportunidades relacionadas à implementação na íntegra do modelo proposto. Posteriormente, foi verificada a aplicabilidade do modelo concebido em três empresas do setor alimentício, subsetor de candies, do Rio Grande do Sul. Para esta investigação, ligada à aplicação prática do planejamento financeiro nas empresas do setor analisado, foi empregada a pesquisa qualitativa, através do método de estudo de casos. O estudo evidenciou a insuficiente utilização de técnicas financeiras como instrumentos de suporte dos processos analítico e decisório, em especial do processo de planejamento financeiro, nas empresas analisadas. A investigação demonstra que o processo de planejamento financeiro tem ainda muito o que contribuir para uma otimização da gestão financeira das empresas estudadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

É muito difícil falar sobre aquecimento de água usando energia solar, sem falar em energia de apoio, ou auxiliar. Essa indispensável energia auxiliar, que pode ser eletricidade, gás ou um outro combustível qualquer, tem por objetivo substituir a energia solar nos dias nublados, ou complementá-la nos períodos de baixa radiação solar. Sua finalidade é manter um certo volume de água quente dentro das condições mínimas de temperatura para uso imediato. Essa energia, tão importante para a eficácia do sistema, tem sempre um custo agregado que deve ser considerado no projeto. A escolha do tipo de energia auxiliar recai justamente sobre a eletricidade por sua facilidade de controle e baixo investimento inicial. O custo da energia elétrica, contudo, é hoje alto o suficiente para que a fração elétrica no consumo de energia do sistema seja importante e passe a merecer mais atenção. Esta dissertação visa a estudar estratégias para minimizar o consumo de energia elétrica auxiliar. O trabalho foi desenvolvido através da simulação do atendimento de uma residência unifamiliar, habitada por cinco pessoas, com um consumo de água quente variável ao longo do dia e igual para todos os dias do ano. Empregou-se para as simulações de todos os casos estudados, o software TRNSYS em sua versão 14.2, (KLEIN, 1997) que demonstrou eficácia e coerência nos resultados obtidos Ao longo do trabalho foram simulados mais de setecentos casos, variando-se parâmetros como área de coletores, volume do reservatório, potência elétrica, dentre outros. Com os resultados obtidos nas simulações foram elaboradas tabelas e gráficos dos quais foi possível retirar algumas conclusões relevantes tais como a dependência do consumo de energia auxiliar com o volume do reservatório, número de coletores, potência da resistência de aquecimento e sua altura, bem como a altura do termostato. A partir dos resultados deste trabalho foi possível a elaboração de uma série de recomendações relativas a estudo e a projeto de sistemas de aquecimento solar de água quente para uso doméstico, visando à otimização na utilização do sistema de energia auxiliar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma análise das melhorias introduzidas no Processo de Desenvolvimento de Produtos (PDP) de uma empresa de calçados denominada Calçados Reifer Ltda. Estas melhorias foram aplicadas especificamente ao setor de Modelagem, que é o principal responsável por este desenvolvimento, objetivando sua otimização e a diminuição no parâmetro tempo de entrega do novo produto ao mercado. O processo de desenvolvimento dos novos modelos na indústria de calçados é estratégico, devido aos requisitos dos clientes relativos a este parâmetro serem progressivamente menores -especialmente para as companhias que produzem para exportação. Qualquer demora relativa à definição ou ao cumprimento das especificações de produto podem pôr em risco a competitividade da empresa. Assim, foi analisada a estrutura do PDP atual baseada nas referências teóricas, como as providas pelas ciências administrativas, e pela gestão do desenvolvimento de produtos e processos. A proposta de um processo aperfeiçoado e mais rápido, baseado em uma abordagem específica de gestão de recursos, introduzindo melhorias significativas na gestão do processo e na qualidade do produto final obtido, a par da agilização do processo, possibilitou a obtenção de melhorias no PDP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No cenário atual, onde a globalização, aliada a um maior nível de exigência por parte do cliente, impõem às empresas um maior empenho por competitividade, a agdidade no desenvolvimento e otimização de produtos torna-se crucial para a sobrevivência das mesmas no mercado. Neste contexto, procurou-se compilar várias técnicas utilizadas em E n g e h dd Qd& em um método integrado para a Ot+o Expmmid de MWtwa. Essas técnicas fornecem resultados muito mais rápidos e econômicos do que a tradicional prática de variar um componente de cada vez na mistura, devido ao menor número de ensaios necessários. Entretanto, apesar de não serem tão recentes, as ferramentas aplicáveis à otimização de misturas não têm sido utilizadas pelo seu maior beneficiário (a indústria), provavelmente por falta de divulgação de sua existência, ou, principalmente, devido à complexidade dos cálculos envolvidos. Dessa forma, além do método proposto, desenvolveu-se também um sofiwa~q ue irnplementa todas os passos sugeridos, com o intuito de facilitar ainda mais a aplicação dos mesmos por pessoas não especializadas em técnicas estatísticas. Através do software (OptiMix), o método foi testado em uma situação real e em um estudo comparativo com um relato da literatura, a fim de testar sua validade, necessidade de adaptações e consistência dos resultados. A avaliaçio dos estudos de caso demonstrou que o método proposto fornece resultados coerentes com os de outras técnicas alternativas, com a vantagem de o usuário não precisar realizar cálculos, evitando assim, erros e agilizando o processo de otimização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.