968 resultados para Problema de minimização de trocas de ferramenta
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos científicos e tecnológicos do desenvolvimento de software. No desenvolvimento de software, a fase de especificação dos requisitos é uma das mais importantes, visto que erros não detectados nesta são propagados para as fases posteriores. Quanto mais avançado estiver o desenvolvimento, mais caro custa reparar um erro introduzido nas fases iniciais, pois isto envolve reconsiderar vários estágios do desenvolvimento. A prototipação permite que os requisitos do software sejam validados logo no início do desenvolvimento, evitando assim a propagação de erros. Paralelamente, a utilização de métodos formais visa revelar inconsistências, ambigüidades e falhas na especificação do software, que podem caso contrário, não serem detectadas. Usar a prototipação de software juntamente com uma notação formal enfatiza a especificação do problema e expõe o usuário a um sistema “operante” o mais rápido possível, de modo que usuários e desenvolvedores possam executar e validar as especificações dos requisitos funcionais. O objetivo principal deste trabalho é instanciar uma técnica da área de Prototipação de Software que capacite o engenheiro de software gerar automaticamente protótipos executáveis a partir de especificações formais de tipos abstratos de dados, na notação PROSOFT-algébrico, visando a validação dos requisitos funcionais logo no início do desenvolvimento do software. Para tanto foi proposto um mapeamento da linguagem PROSOFT-algébrico para OBJ. Como OBJ possui um eficiente sistema de reescrita de termos implementado, a utilização deste propicia a prototipação de tipos abstratos de dados, especificados em PROSOFT-algébrico. Os componentes envolvidos na definição deste trabalho, assim como o mapeamento entre as linguagens, foram especificados algebricamente e implementados no ambiente de desenvolvimento de software PROSOFT. A implementação serviu para validar o mapeamento proposto através de dois estudos de caso. Por fim, são apresentadas as conclusões alcançadas e as atividades adicionais vislumbradas a partir do trabalho proposto.
Resumo:
A maioria das empresas interage com seus clientes através de computadores. Com o passar do tempo está armazenado nos computadores um histórico da atividade da empresa que pode ser explorado para a melhoria do processo de tomada de decisões. Ferramentas de descoberta de conhecimento em bancos de dados exploram este histórico a fim de extrair vários tipos de informação. Um dos tipos de informação que pode ser extraída destes tipos de bancos de dados são as regras de associação que consistem em relacionamentos ou dependências importantes entre itens tal que a presença de alguns itens em uma transação irá implicar a presença de outros itens na mesma transação. Neste trabalho são aplicadas técnicas de descoberta de conhecimento na área do comércio varejista de confecção. Foram detectadas algumas peculiaridades dos bancos de dados desta área sendo proposto um novo algoritmo para melhorar o desempenho da tarefa de extração de regras de associação. Para a validação dos resultados apresentados pelo algoritmo foi desenvolvido o protótipo de uma ferramenta para extração de regras de associação. Foram realizados experimentos com bancos de dados reais de uma empresa da área de comércio varejista de confecção para análise de desempenho do algoritmo.
Resumo:
Antigamente as informações que as organizações utilizavam durante a sua gestão eram suficientemente armazenadas em arquivos. A própria aplicação era responsável pela manipulação dos dados e pela função de guardá-los de maneira segura. No entanto, a sociedade evoluiu com tamanha rapidez que as organizações começaram a gerar uma quantidade cada vez maior de informação e, também, a rapidez de acesso às informações armazenadas tornou-se cada vez mais importante. Os antigos sistemas de arquivos tornaram-se complexos sistemas de armazenamento de informações responsáveis por gerir grandes volumes de dados, chamados Sistemas Gerenciadores de Banco de Dados - SGBD’s. Devido à complexidade dos bancos de dados e à necessidade de sua operação ininterrupta surge a tarefa do Administrador, cuja função é assegurar que os bancos de dados permaneçam operantes, íntegros e rápidos. Para realizar suas tarefas o Administrador precisa contar com boas ferramentas de modo a tornar as intervenções no banco de dados rápidas e seguras. Existem no mercado, boas ferramentas para administração de banco de dados. No entanto, são todas proprietárias, possuem custo elevado e apresentam deficiências quando o DBA e o BD estão localizados logicamente em redes de dados distintas. Para tentar resolver este problema, este trabalho se propõe a desenvolver uma ferramenta de administração de banco de dados que o DBA possa utilizar para gerenciar os bancos de dados, utilizando a Web como instrumento.
Resumo:
Este trabalho tem por objetivo apresentar e estudar a aplicação de uma ferramenta chamada PCP – Pseudo-Compilador Portugol, criada para auxiliar estudantes de programação a aprimorar o raciocínio lógico e a criar programas estruturados, sem que precisem se preocupar com comandos e instruções em Inglês ou tenham conhecimento de uma linguagem de programação específica. Por ser uma ferramenta que usa somente palavras do nosso idioma, os alunos podem direcionar todo o seu raciocínio no entendimento e resolução do problema em forma de algoritmo. O estudo experimental realizado neste trabalho pretende analisar e comparar o aprendizado entre grupos de alunos de disciplinas de programação utilizando e não utilizando esta ferramenta. Além de acompanhar o desempenho dos alunos, pretende também coletar informações durante as baterias de testes e obter as opiniões dos mesmos em relação ao PCP, no que se refere às facilidades, dificuldades, pontos positivos e falhas apresentadas. Este estudo é apresentado em duas etapas, com oito baterias de teste em cada uma. Na primeira etapa foram selecionados alunos do Curso de Ciência da Computação da UNIGRAN, em Dourados-MS; na segunda etapa foram selecionados alunos da Escola Anglo Decisivo. Estas duas etapas possibilitam a análise do aprendizado proporcionado pela ferramenta com alunos que já têm alguma noção de programação e com alunos que não tiveram nenhum contato com o desenvolvimento de programas.
Resumo:
A tomada de decisões é um procedimento complexo e que envolve muitas variáveis. A análise multiobjeto estabelece relações para que, em projetos e planejamento de unidades de gerenciamento, sejam analisados os diversos condicionantes envolvidos. Como nos recursos hìdricos a tomada de decisão envolve cada vez mais a resolução de conflitos e um aumento da diversidade de objetivos, a análise multiobjetivo vem sendo cada vez mais utilizada..O objetivo deste trabalho é desenvolver ferramenta e metodologias que busquem formas de quantificar, avaliar e analisar múltiplos objetivos envolvidos na tomada de decisão em projetos, planejamento e gerenciamento de bacias hidrográficas. Para a elaboração dos estudos foi escolhida a bacia do rio dos Sinos. A bacia do rio dos Sinos abrange parte da Região Metropolitana de Porto Alegre, e é importante pólo econômico do Estado do Rio Grande do Sul Foram identificados condicionantes para a bacia, quais sejam: eficiência econômica, melhoria da qualidade da água, comprometimento social e minimização do impacto ambiental. Cada condicionante foi modelado por metodologias já consagradas para tal. A novidade é o casamento delas o que tornou o problema mais complexo de ser resolvido. Foi elaborada função de compromisso para a bacia do rio dos Sinos.Por fim, baseado em preferências estabelecidas pelo Comitê da Bacia Hidrográfica, foram elaborados tabela e gráficos que auxiliam na tomada de decisão para intervenções no rio, definindo assim, o que deve ser feito primeiro com os recursos disponíveis em um plano de despoluição para a bacia.
Resumo:
Trata do gerenciamento da carteira de inadimplentes no mercado de crédito ao consumidor, em especial no de cartões de crédito. Foca a concepção, desenvolvimento e manutenção do modelo de collection scoring como ferramenta para a administração da carteira de inadimplentes, considerada fundamental na gestão estratégica e profissional do risco de crédito ao consumidor. Caracteriza o problema da inadimplência, tanto no mercado de crédito ao consumidor como no de cartões de crédito, e aponta tendências e alternativas para o seu gerenciamento estratégico
Resumo:
Atualmente, a consciência de que os recursos naturais são esgotáveis e que a geração de poluentes deve ser evitada para impedir um sério problema ambiental, são aspectos que já estão sendo considerados na indústria química. Isto se reflete em uma das principais preocupações enfrentadas por este setor: a minimização de efluentes. O presente trabalho tem por objetivo desenvolver um problema padrão na área de integração mássica para recuperação de água de processos, sugerindo uma metodologia que ajude a solucionar esta grande preocupação. O problema padrão proposto é suficientemente simples para sua rápida compreensão, e complexo o suficiente para representar uma típica situação industrial. Na metodologia empregada, técnicas de integração mássica como: reuso, reciclo e regeneração são utilizadas, alternativamente ao tratamento de final de tubulação, a fim de reduzir a demanda de água consumida e minimizar a quantidade de efluente líquido tratado e descartado. A síntese da rede de integração mássica foi feita através da construção de uma superestrutura, contendo todas as possíveis configurações em potencial para o sistema proposto. A solução do problema foi obtida via programação não linear mista inteira (MINLP). Um estudo comparativo entre as diversas configurações obtidas foi realizado. Uma análise da operabilidade das principais configurações da rede de integração mássica foi feita para garantir que a rede sintetizada seja operável.
Resumo:
Este trabalho analisou os portadores de cartão tipo Private Label do Carrefour, a segunda maior organização varejista do mundo. Foram coletados dados de uma amostra de 400 clientes, com o fim de construir um modelo empírico de Satisfação e Lealdade. Em seguida, foi utilizada a técnica de Análise de Sobrevivência para construir um modelo preditivo de risco de perda de clientes, que se mostrou efetivo na prevenção do atrito. Não se encontra aplicação desta técnica emergente para o problema da deserção de clientes. Os resultados mostram que a classe social dos clientes atua sobre a Satisfação, a Lealdade Atitudinal, e o Uso de meios de pagamento dos clientes pesquisados.
Resumo:
Esta dissertação discute capital social, um tema relativamente novo nas ciências humanas, mas que está diretamente relacionado com um velho problema da vida social: os dilemas da ação coletiva, isto é, como uma sociedade pode desenvolver-se por meio de confiança mútua entre seus membros e cooperação em torno de objetivos comuns, evitando os velhos problemas envolvendo bens públicos, quais sejam, os “caronas” e as atitudes “caçadoras de renda”. Em primeiro lugar, situa-se a discussão enfocando o problema da ação coletiva de um enfoque mais amplo: os dilemas da cooperação, as ações altruístas e seu suposto conflito com um modelo de ser humano movido pelo auto-interesse, o pressuposto da economia neoclássica do “homem econômico” e, enfim, a teoria da lógica da ação coletiva e suas limitações. Em segundo lugar, apontam-se as 4 principais correntes de pensamento que buscam definir o conceito de capital social: o comunitarismo de Tocqueville e Putnam, o capital social como gerador de capital humano de Coleman, o capital social no mercado das trocas simbólicas de Bourdieu e, por último, o capital social como infra-estrutura social (instituições) de North. Por último, são apresentados casos de aplicação dos conceitos de capital social baseados em trabalhos teórico-analíticos e de observações empíricas em diversos países, mostrando-se as diferentes formas que ele pode assumir conforme o contexto em que é analisado e, sobretudo, os efeitos que ele pode produzir numa comunidade, numa região ou mesmo num país inteiro.
Resumo:
O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.
Resumo:
Este trabalho busca avaliar, com suporte da metodologia MCDA - análise de decisão multicritério, os terminais de contêineres brasileiros quanto a suas potencialidades como vetores de crescimento sustentado da economia, no médio e longo prazo, para priorização de investimentos públicos e privados. O trabalho se consubstancia em um levantamento bibliográfico do tema decisório, que lhe serve de base, seguido de um estudo do tema portuário, a fim de levantar os fatores que tornam viável o florescimento e desenvolvimento de um sítio portuário, além de buscar tendências do setor de contêineres no Brasil. Após estas etapas, foi desenvolvido uma modelagem para o problema de avaliação dos terminais, com ajuda do software Expert Choice. Os resultados obtidos apontam para uma alteração sensível de paradigma no panorama portuário nacional em um cenário futuro. Portos que hoje se localizam na parte superior da lista de movimentação de contêineres, à frente nas estatísticas, podem não ter para onde se expandir, enquanto outros, que se encontram menos pujantes, podem florescer nas próximas décadas, devido às características de cada sítio portuário. As mais relevantes foram selecionadas como critérios do modelo desenvolvido, são eles: águas abrigadas, retroáreas, acessos terrestres e marítimos, equacionamento de questões ambientais, localização estratégica, vocação regional, extensão de cais e áreas de expansão. Entre as conclusões deste estudo, pode-se citar: 1 - O Porto de Santos, tradicional líder do ranking nacional em movimentação de contêineres, deve se manter entre os primeiros, graças à sua proximidade com o principal centro econômico e industrial nacional, a região da grande São Paulo, embora esteja com sua capacidade perto do limite operacional, conta com áreas de expansão, como o projeto Barnabé-Bagres. 2 - Outro porto que se destacou na classificação final foi o de Itaguaí, já hoje com movimentação crescente e enorme potencial de crescimento na área de contêineres. Possui excelente condição de águas abrigadas, boa localização estratégica, entre Rio de Janeiro e São Paulo, dois pólos econômicos fortes, com influência decisiva no cenário nacional, e que dispõe de consistente plano de expansão, especialmente relacionado ao aumento de contêineres.
Resumo:
O objetivo da presente dissertação é analisar a telemedicina como ferramenta para ampliar o acesso à assistência em saúde no Brasil, dentro do contexto do Sistema Único de Saúde (SUS). Atualmente, a dificuldade de acesso à assistência constitui um grande problema para sistemas de saúde e países no mundo todo. Foi utilizada metodologia qualitativa analítica do tipo “Theory Building from Cases”, envolvendo o estudo de dois casos: a Rede de Teleassistência de Minas Gerais e a Rede de Telessaúde do Canadá, buscando fornecer argumentos positivos para a incorporação da telessaúde em estratégias e políticas de saúde pública no Brasil. Os resultados mostraram que a telemedicina ampliou o acesso à assistência em áreas remotas e rurais, proporcionou economia de recursos devido à redução de deslocamentos de pacientes, possibilitou a educação à distância de profissionais de saúde e, com isso, melhorou a qualidade da atenção prestada. Assim, a conclusão da pesquisa foi que a telemedicina é uma ferramenta eficiente para ampliar o acesso à assistência em saúde no Brasil, colaborando para o cumprimento dos princípios do SUS de universalidade, integralidade, equidade e resolutividade. A incorporação da telessaúde dentro das políticas de saúde com financiamento integrado no orçamento público é fundamental para o sucesso desta ferramenta.
Resumo:
Os quadrados mágicos, de um modo geral, são abordados como uma poderosa ferramenta pedagógica capaz de despertar e aprimorar o raciocínio lógico. São inúmeros os projectos que objectivam a realização de actividades lúdicas capazes de aprimorar capacidades humanas como o raciocínio lógico. Segundo [Leo05], na Alemanha, os quadrados mágicos chegam a ser referência nos manuais das escolas primárias. Contrariamente à maioria dos trabalhos em quadrados mágicos, a grande preocupação presente neste não foi propriamente explorar a potencialidade dos quadrados mágicos como utensílio dogmático no desenvolvimento de raciocínios. Neste trabalho a nossa atenção incidiu na resolução de um problema de combinatória proposto por Henry Dudeney, mais concretamente o “Enigma do Monge”. Foi desenvolvida uma estratégia própria para solucionar o respectivo enigma. Foram ainda analisadas outras questões inerentes ao mesmo problema. Verificámos ainda que as relações de simetria desempenham um papel preponderante, no sentido em que o seu conhecimento facilitou a resolução do problema. Contudo, e contrariamente ao que prevíamos, verificou-se que este problema estava fortemente relacionado com os quadrados mágicos. Mais, existem propriedades verificadas no enigma que são determinantes na construção de quadrados mágicos de ordem 3.
Resumo:
Because of social exclusion in Brazil and having as focus the digital inclusion, was started in Federal University of Rio Grande do Norte a project that could talk, at the same time, about concepts of collaborative learning and educational robotics , focused on children digitally excluded. In this context was created a methodology that approaches many subjects as technological elements (e. g. informatics and robotics) and school subjects (e. g. Portuguese, Mathematics, Geography, History), contextualized in everyday situations. We observed educational concepts of collaborative learning and the development of capacities from those students, as group work, logical knowledge and learning ability. This paper proposes an educational software for robotics teaching called RoboEduc, created to be used by children digitally excluded from primary school. Its introduction prioritizes a friendly interface, that makes the concepts of robotics and programming easy and fun to be taught. With this new tool, users without informatics or robotics previous knowledge are able to control a robot, previously set with Lego kits, or even program it to carry some activities out. This paper provides the implementation of the second version of the software. This version presents the control of the robot already used. After were implemented the different levels of programming linked to the many learning levels of the users and their different interfaces and functions. Nowadays, has been implemented the third version, with the improvement of each one of the mentioned stages. In order to validate, prove and test the efficience of the developed methodology to the RoboEduc, were made experiments, through practice of robotics, with children for fourth and fifth grades of primary school at the City School Professor Ascendino de Almeida, in the suburb of Natal (west zone), Rio Grande do Norte. As a preliminary result of the current technology, we verified that the use of robots associated with a well elaborated software can be spread to users that know very little about the subject, without the necessity of previous advanced technology knowledges. Therefore, they showed to be accessible and efficient tools in the process of digital inclusion