23 resultados para Ferramentas

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem como tema a avaliação de ferramentas de mineração de dados disponíveis no mercado, de acordo com um site de descoberta do conhecimento, chamado Kdnuggets (http://www.kdnuggets.com). A escolha deste tema justifica-se pelo fato de tratar-se de uma nova tecnologia de informação que vem disponibilizando diversas ferramentas com grandes promessas e altos investimentos, mas que, por outro lado, ainda não é amplamente utilizada pelos tomadores de decisão das organizações. Uma das promessas desta tecnologia é vasculhar grandes bases de dados em busca de informações relevantes e desconhecidas e que não poderiam ser obtidas através de sistemas chamados convencionais. Neste contexto, realizar uma avaliação de algumas destas ferramentas pode auxiliar a estes decisores quanto à veracidade daquilo que é prometido sem ter de investir antes de estar seguro do cumprimento de tais promessas. O foco da pesquisa é avaliar sistemas que permitem a realização da análise de cesta de supermercado (market basket analysis) utilizando bases de dados reais de uma rede de supermercados. Os seus objetivos são: avaliar ferramentas de mineração de dados como fonte de informações relevantes para a tomada de decisão; identificar, através da revisão de literatura, as promessas da tecnologia e verificar se tais promessas são cumpridas pelas ferramentas; identificar e caracterizar ferramentas de mineração de dados disponíveis no mercado e comparar os tipos de resultados gerados pelas diferentes ferramentas e relatar problemas encontrados durante a aplicação destas ferramentas. O desenvolvimento do trabalho segue o método estudo de caso múltiplo: os dados foram coletados a partir da aplicação das ferramentas às bases de dados e da entrevista com tomadores de decisão da empresa. Foram seguidos procedimentos já utilizados de avaliação de sistemas para a realização desta pesquisa. A partir da análise dos dados coletados, pôde-se conhecer alguns problemas apresentados pelas ferramentas e concluiu-se que as ferramentas, que foram utilizadas neste trabalho, não estão prontas para serem disponibilizadas no mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A simulação é uma das ferramentas mais utilizadas para a aplicação da análise sistêmica nos mais diversos estudos. Ao longo do tempo, vários modelos foram desenvolvidos para representar sistemas de recursos hídricos, utilizando a simulação. Dentre esses modelos, está o Propagar MOO, que simula a propagação de vazões em uma bacia hidrográfica, submetida à decisões operacionais de suprimento de demandas e de operação de reservatórios, introduzidas pelo usuário através de rotinas escritas na linguagem de programação Pascal Script. A utilização eficiente dessas rotinas permite ao usuário ampliar a capacidade e flexibilidade do modelo na representação de um sistema hídrico. Com o objetivo de contribuir na ampliação da flexibilidade do modelo Propagar MOO e de sua aplicabilidade à modelagem de sistemas de recursos hídricos em geral, bem como facilitar o estudo da linguagem de programação Pascal Script e motivar os profissionais da área no desenvolvimento de novas rotinas aplicadas ao modelo, foram implementadas, através do presente trabalho, rotinas genéricas contendo estratégias de planejamento do uso da água e de operação de reservatórios, bem como ferramentas para analisar seus resultados. Para ampliar essa contribuição, foi aprimorada a possibilidade de simulação da geração de energia hidrelétrica em pontos de uma rede hidrográfica, com a criação de novas ferramentas para esse fim, na estrutura interna do modelo. Por fim, para que o próprio usuário pudesse construir ferramentas para auxiliar na verificação dos resultados obtidos nas simulações, esse estudo apresenta a implementação de rotinas de uso geral para servir como exemplos de ferramentas de análise de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar a influência do tratamento superficial, através da técnica de nitretação a plasma, no processo de fresamento com fresas de aço rápido AISI M2. Foram investigados os efeitos deste tratamento superficial no processo de corte, variando-se a forma de refrigeração/lubrificação das fresas com fluído de corte convencional (emulsão) em abundância, com minimização e sem fluído (lubrificação a seco). Na nitretação, a composição da mistura de gases utilizada nos experimentos foi de 5% N2 e 95% H2 em volume, a uma pressão de tratamento de 5 mbar (3,8 Torr). A temperatura utilizada foi de 440oC, durante um tempo de tratamento de 30 minutos, resultando em uma camada nitretada com uma zona de difusão com aproximadamente 8µm de profundidade. As ferramentas empregadas no processo de fresamento foram investigadas através de medição de forças de usinagem, medições de desgaste na superfície de incidência (flanco) e na superfície de saída (face), sendo as camadas nitretadas caracterizadas por metalografia óptica e microdureza. Foi observado um desempenho superior das fresas nitretadas apenas para as condições de corte a seco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objeto de estudo desta dissertação é a aplicação de ferramentas para o controle da qualidade e melhoria do processo de produção de uma etapa construtiva de edificações residenciais. As ferramentas aplicadas são: i) controle estatístico do processo – CEP, e; ii) dispositivos Poka-Yoke. A etapa construtiva mencionada é a elevação da estrutura de concreto armado. O estudo foi motivado pela necessidade de melhorar o sistema de manufatura de uma empresa construtora de Porto Alegre – RS, com vistas a reduzir o tempo de construção de suas edificações (lead-time de produção). Para tanto, a partir de conceitos teóricos do Sistema Toyota de Produção – STP, analisou-se o processo produtivo atual para a referida etapa construtiva, identificaram-se perdas existentes no processo e foram propostas melhorias. As ferramentas de qualidade CEP e Poka-Yoke enquadram-se dentro dessa perspectiva de melhoria. Através da sua aplicação, pretende-se eliminar algumas das perdas existentes no processo de construção melhorando sua produtividade e a qualidade do produto final. A aplicação do CEP tem como objetivo avaliar a capacidade do fornecedor de concreto de atender às exigências dos consumidores, de acordo com o que é estipulado pelas normas brasileiras de fabricação e aceitação de concreto, sem impor-lhes ônus desnecessário. A avaliação é efetuada através do monitoramento da variabilidade da propriedade que melhor caracteriza a qualidade do concreto, qual seja, a sua resistência à compressão axial. Os dispositivos Poka-Yoke, por sua vez, são aplicados com funções de controle da qualidade e prevenção de defeitos e, como ferramentas auxiliares na melhoria de atividades produtivas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo fornece aos usuários de puncionadeiras, uma metodologia para quantificar o desgaste crítico das ferramentas e proporcionar a determinação do adequado procedimento de afiação, aplicado às particularidades e necessidades de cada condição de uso deste equipamento. A quantificação dos parâmetros de controle da afiação das ferramentas está vinculada ao controle do incremento do arredondamento da aresta de corte, em relação à quantidade de puncionamentos executados. É apresentada uma coletânea de informações publicadas acerca do assunto, com recomendações e resultados de estudos específicos que orientam os usuários destas ferramentas em seus planos particulares de manutenção. Um experimento prático, que pode ser repetido e atualizado facilmente dentro da indústria metalúrgica, auxilia na quantificação e estabelecimento do correto momento da afiação, considerando as condições específicas desta. A metodologia apresentada também pode ser utilizada na avaliação do processo usado, através da análise de ferramentas de fornecedores diferentes ou do uso de materiais e revestimentos diferentes aplicados às ferramentas. A análise econômica, considerando os custos envolvidos no processo de afiação e os custos operacionais envoltos com ferramenta e a troca desta na máquina, é confrontada com os resultados experimentais e com as recomendações publicadas, fornecendo um resultado seguro e confiável para a determinação correta da freqüência de manutenção das ferramentas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cada vez mais o tempo acaba sendo o diferencial de uma empresa para outra. As empresas, para serem bem sucedidas, precisam da informação certa, no momento certo e para as pessoas certas. Os dados outrora considerados importantes para a sobrevivência das empresas hoje precisam estar em formato de informações para serem utilizados. Essa é a função das ferramentas de “Business Intelligence”, cuja finalidade é modelar os dados para obter informações, de forma que diferencie as ações das empresas e essas consigam ser mais promissoras que as demais. “Business Intelligence” é um processo de coleta, análise e distribuição de dados para melhorar a decisão de negócios, que leva a informação a um número bem maior de usuários dentro da corporação. Existem vários tipos de ferramentas que se propõe a essa finalidade. Esse trabalho tem como objetivo comparar ferramentas através do estudo das técnicas de modelagem dimensional, fundamentais nos projetos de estruturas informacionais, suporte a “Data Warehouses”, “Data Marts”, “Data Mining” e outros, bem como o mercado, suas vantagens e desvantagens e a arquitetura tecnológica utilizada por estes produtos. Assim sendo, foram selecionados os conjuntos de ferramentas de “Business Intelligence” das empresas Microsoft Corporation e Oracle Corporation, visto as suas magnitudes no mundo da informática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho faz avaliação de ferramentas que utilizam técnica de Descoberta de Conhecimento em Texto (agrupamento ou “clustering”). As duas ferramentas são: Eurekha e Umap. O Eurekha é baseado na hipótese de agrupamento, que afirma que documentos similares e relevantes ao mesmo assunto tendem a permanecer em um mesmo grupo. O Umap, por sua vez, é baseado na árvore do conhecimento. A mesma coleção de documentos submetida às ferramentas foi lida por um especialista humano, que agrupou textos similares, a fim de que seus resultados fossem comparados aos das ferramentas. Com isso, pretende-se responder a seguinte questão: a recuperação automática é equivalente à recuperação humana? A coleção de teste é composta por matérias do jornal Folha de São Paulo, cujo tema central é a Amazônia. Com os resultados, pretende-se verificar a validade das ferramentas, os conhecimentos obtidos sobre a região e o tratamento que o jornal dá em relação à mesma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente necessidade de padronização, eficácia e gerenciamento de processos têm aumentado o interesse das mais diferentes organizações pela tecnologia de workflow. Entretanto, a rápida propagação da tecnologia de workflow, ocorrida na última década, fez com que muitos sistemas desenvolvidos nesta área fossem disponibilizados e difundidos sem uma padronização clara. Analisando-se especificamente a fase de construção do workflow, nota-se que há muitas divergências. Conceitualmente, ainda não há modelos nem metodologias de modelagem amplamente aceitos e consolidados. Quanto às implementações, ainda não existe uma especificação clara e detalhada das ferramentas de definição. A conseqüência deste panorama é a baixa interoperabilidade e a baixa padronização dos conceitos, funcionalidades e interações das ferramentas de definição. Contudo, muitos esforços estão sendo feitos para solucionar o problema da interoperabilidade e padronização. A área de workflow como um todo já começa a apontar fortes tendências de padronização dos conceitos, funcionalidades e interações de seus sistemas. Detectar e avaliar tais tendências são os focos de estudos desta dissertação. Mais precisamente, o objetivo desta dissertação é fornecer informações e métodos que possam ajudar desenvolvedores e usuários de ferramentas de definição a: compreender, descrever e avaliar os conceitos, funcionalidades e interações deste tipo de ferramenta. Para tanto, é mostrado um método de descrição de modelos conceituais de ferramentas de definição. O referido método é resultado de uma pesquisa sobre o modelo conceitual deste tipo de ferramenta. Com base nas informações pesquisadas, foi desenvolvido o modelo conceitual de uma ferramenta de definição chamada de Amaya Workflow (AW). Para mostrar a viabilidade de implementação do modelo conceitual AW e concretizar em um software os estudos desenvolvidos durante esta dissertação, foi implementado o protótipo Amaya Workflow. Por fim, é mostrado um panorama geral das funcionalidades, conceitos e interações das principais ferramentas de definição existentes. Com base neste panorama e nos estudos anteriores, é descrito um método de avaliação de modelos conceituais de ferramentas de definição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A heparina foi isolada no início do século XX e permanece, até os dias atuais, como um dos mais importantes e eficientes agentes terapêuticos de ação antitrombótica. Sua atividade anticoagulante deve-se à ativação da antitrombina (AT), uma serpina responsável pela inibição fisiológica de serino-proteinases plasmáticas, tais como fIIa e fXa. Os esforços no sentido da elucidação dos aspectos estruturais e dinâmicos associados ao reconhecimento molecular da heparina pela AT, em nível atômico, vêm encontrando diversas dificuldades, principalmente associadas aos compostos sacarídicos. Em decorrência de sua elevada polaridade e flexibilidade, glicosaminoglicanos como a heparina são difíceis de estudar e modelar. Soma-se a isto o fato de que os resíduos de iduronato presentes na heparina (IdoA) apresentam um incomum equilíbrio conformacional entre estados de cadeira (1C4) e bote-torcido (2SO), sendo esta última estrutura postulada como a possível conformação bioativa. Sendo assim, este trabalho apresenta um estudo de modelagem molecular do perfil conformacional da heparina, tanto em solução quanto complexada à AT, utilizando cálculos ab initio e simulações de dinâmica molecular (DM) Em decorrência da ausência de parâmetros capazes de descrever polissacarídeos nos campos de força atualmente disponíveis, cargas atômicas foram geradas, utilizando-se os esquemas de Mulliken, Löwdin e cargas ajustadas ao Potencial Eletrostático, através de cálculos quantum-mecânicos na base 6-31G** e testadas na simulação de DM da heparina. Diversas condições de simulação, tais como modelos de água, concentrações de sais e as conformações 1C4 e 2SO do IdoA, foram avaliadas de forma a identificar as melhores condições para a descrição conformacional da heparina em solução. O protocolo de DM obtido foi então utilizado no estudo do complexo AT-heparina. Os resultados obtidos estão de acordo com os dados experimentais atualmente disponíveis acerca da conformação da heparina e da contribuição energética de cada resíduo de aminoácido da AT para a formação do complexo com a heparina. A partir dos cálculos ab initio realizados, foi proposto um refinamento na estrutura da heparina determinada por RMN, enquanto que as simulações de DM permitiram reinterpretar aspectos da estrutura tridimensional da AT determinada por cristalografia de raios-X. Adicionalmente, os dados obtidos sugerem que não há requerimento conformacional para a interação do IdoA com a AT Globalmente, os dados indicam que simulações de DM podem ser utilizadas para representar adequadamente a conformação da heparina, assim como para caracterizar e quantificar suas interações com a AT. Assim sendo, propomos o uso de simulações de DM do complexo entre a AT e a heparina, ou entre a AT e compostos derivados da heparina, como uma ferramenta útil no processo de desenvolvimento de novos agentes antitrombóticos e anticoagulantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho visa avaliar a contribuição do uso de dispositivos visuais no combate às perdas durante o processo de setup, dentro do conceito de troca rápida de ferramentas. O estudo foi realizado em uma metalúrgica, focando o setor de usinagem composto por tornos CNC (Controle Numérico Computadorizado). As melhorias relativas aos dispositivos visuais foram implantadas a fim de organizar o setor de tornos e reduzir o tempo de setup dessas máquinas. O processo de implantação iniciou a partir de um diagnóstico da situação existente quanto à troca de ferramentas, realizado por meio dos seguintes procedimentos: descrição dos processos de produção; levantamento da percepção dos funcionários quanto às melhorias necessárias; percepções da pesquisadora. Com base nesse diagnóstico, foi realizado um estudo para a priorização máquinas onde as melhorias seriam implementadas. Através do registro dos tempos de setup antes e após o período de implantação das melhorias, verificou-se que os tempos aumentaram em três máquinas e reduziram em três. Embora existam diferenças de desempenho entre as máquinas, algumas falhas no processo de implantação ficaram evidentes: falta de aderência aos padrões de setup, visto que os trabalhadores não separavam tempo interno e externo; treinamento insuficiente sobre a TRF e seus benefícios; falta de reuniões periódicas e negligência do estágio estratégico de preparação para a TRF, visto que não foram estabelecidas metas claras de desempenho nem um plano global de implantação.