30 resultados para Algoritmos - conceitos
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
Resumo:
Esta tese apresenta uma abordagem baseada em conceitos para realizar descoberta de conhecimento em textos (KDT). A proposta é identificar características de alto nível em textos na forma de conceitos, para depois realizar a mineração de padrões sobre estes conceitos. Ao invés de aplicar técnicas de mineração sobre palavras ou dados estruturados extraídos de textos, a abordagem explora conceitos identificados nos textos. A idéia é analisar o conhecimento codificado em textos num nível acima das palavras, ou seja, não analisando somente os termos e expressões presentes nos textos, mas seu significado em relação aos fenômenos da realidade (pessoas, objetos, entidades, eventos e situações do mundo real). Conceitos identificam melhor o conteúdo dos textos e servem melhor que palavras para representar os fenômenos. Assim, os conceitos agem como recursos meta-lingüísticos para análise de textos e descoberta de conhecimento. Por exemplo, no caso de textos de psiquiatria, os conceitos permitiram investigar características importantes dos pacientes, tais como sintomas, sinais e comportamentos. Isto permite explorar o conhecimento disponível em textos num nível mais próximo da realidade, minimizando o problema do vocabulário e facilitando o processo de aquisição de conhecimento. O principal objetivo desta tese é demonstrar a adequação de uma abordagem baseada em conceitos para descobrir conhecimento em textos e confirmar a hipótese de que este tipo de abordagem tem vantagens sobre abordagens baseadas em palavras. Para tanto, foram definidas estratégias para identificação dos conceitos nos textos e para mineração de padrões sobre estes conceitos. Diferentes métodos foram avaliados para estes dois processos. Ferramentas automatizadas foram empregadas para aplicar a abordagem proposta em estudos de casos. Diferentes experimentos foram realizados para demonstrar que a abordagem é viável e apresenta vantagens sobre os métodos baseados em palavras. Avaliações objetivas e subjetivas foram conduzidas para confirmar que o conhecimento descoberto era de qualidade. Também foi investigada a possibilidade de se realizar descobertas proativas, quando não se tem hipóteses iniciais. Os casos estudados apontam as várias aplicações práticas desta abordagem. Pode-se concluir que a principal aplicação da abordagem é permitir análises qualitativa e quantitativa de coleções textuais. Conceitos podem ser identificados nos textos e suas distribuições e relações podem ser analisadas para um melhor entendimento do conteúdo presente nos textos e, conseqüentemente, um melhor entendimento do conhecimento do domínio.
Resumo:
Resumo não disponível.
Resumo:
o objeto de estudo desta dissertação é a aplicação de conceitos do Sistema Toyota de Produção (STP) na melhoria de um processo de fabricação de calçados. Utilizando como base o princípio do não-custo e do Mecanismo da Função Produção (MFP), e as Sete Classes de Perdas do Sistema Toyota de Produção, além de algumas de suas técnicas, pretende-se realizar uma análise envolvendo i) um modelo de calçados, ii) uma linha de produção, e iii) uma das operações que fazem parte dessa linha de produção de calçados. Nos três casos o objetivo é identificar as perdas e, posteriormente, sugerir melhorias para eliminá-Ias e/ou reduzi-Ias. Tal análise se dá em três momentos: primeiramente, utiliza-se a Análise do Valor objetivando reduzir o custo dos componentes do produto (calçado) em fabricação. Em um segundo momento, um Fluxograma de Processo é utilizado para mapear o processo e, através da análise da transformação da matériaprima em produto acabado, são identificadas perdas e sugeridas alternativas para eliminá-Ias ou reduzi-Ias. Finalmente, através das técnicas de Estudo do Trabalho (Estudo de Método e Medida do Trabalho - cronometragem), analisa-se uma das operações que fazem parte desse processo produtivo. Por sua importante ligação com a melhoria da qualidade, especificamente no que se refere a eliminar ou reduzir a classe de perda denominada como "Perdas por Fabricação de Produtos Defeituosos", dispositivos Poka-Yoke também são abordados e aplicados nesta dissertação.
Resumo:
A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.
Resumo:
A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.
Resumo:
Este trabalho apresenta novos algoritmos para o roteamento de circuitos integrados, e discute sua aplicação em sistemas de síntese de leiaute. As interconexões têm grande impacto no desempenho de circuitos em tecnologias recentes, e os algoritmos propostos visam conferir maior controle sobre sua qualidade, e maior convergência na tarefa de encontrar uma solução aceitável. De todos os problemas de roteamento, dois são de especial importância: roteamento de redes uma a uma com algoritmos de pesquisa de caminhos, e o chamado roteamento de área. Para o primeiro, procura-se desenvolver um algoritmo de pesquisa de caminhos bidirecional e heurístico mais eficiente, LCS*, cuja aplicação em roteamento explora situações específicas que ocorrem neste domínio. Demonstra-se que o modelo de custo influencia fortemente o esforço de pesquisa, além de controlar a qualidade das rotas encontradas, e por esta razão um modelo mais preciso é proposto. Para roteamento de área, se estuda o desenvolvimento de uma nova classe de algoritmos sugerida em [JOH 94], denominados LEGAL. A viabilidade e a eficiência de tais algoritmos são demonstradas com três diferentes implementações. Devem ser também estudados mecanismos alternativos para gerenciar espaços e tratar modelos de grade não uniforme, avaliando-se suas vantagens e sua aplicabilidade em outros diferentes contextos.
Resumo:
O presente trabalho insere-se no contexto das pesquisas realizadas no Laboratório de Computação & Música do Instituto de Informática da UFRGS. Com ele pretendemos fundamentar e investigar possibilidades em educação musical através da World Wide Web (WWW ou, simplesmente, Web). Para isso, em um primeiro momento, investigamos como desenvolver adequadamente sistemas educativo-musicais para a Web. Queremos aproveitar uma das principais vantagens que a Web oferece para a educação: a de facilitar a disponibilização e o acesso ao conteúdo educativo. Especificamente nesta área do conhecimento - Música -, é rara a pesquisa visando utilizar a Web como suporte. A Internet continua impondo sérias limitações ao emprego de multimídia e ainda mais quando seus dados representam informações sonoras e musicais. Devido a isso, os poucos estudos existentes optam ou por uma simplificação exagerada do sistema ou por soluções proprietárias muito complicadas, que podem reduzir a facilidade de acesso do público-alvo. Assim, no presente trabalho procuramos encontrar um meio-termo: uma solução de compromisso entre a funcionalidade que se espera de tais sistemas, a sua operacionalidade e a simplicidade que a Internet ainda impõe. Para atingir esse objetivo, nos concentramos em promover a interatividade entre o aluno e um ambiente de aprendizado distribuído para o domínio musical. Buscamos fundamentar essa interatividade a partir de: a) conceitos pertinentes a uma interação de boa qualidade para propósitos de ensino/aprendizagem; e b) adoção de tecnologias da Web para música que permitam a implementação adequada desses conceitos. Portanto este trabalho é eminentemente interdisciplinar, envolvendo principalmente estudos das áreas de Interação Humano-Computador, Educação Musical e Multimídia. Após essa fase inicial de fundamentação, investigamos uma solução possível para esse problema na forma de um protótipo de um sistema educativo-musical na Web, tendo em vista os seguintes requisitos: · Ser fácil de programar, mas suficiente para satisfazer os requisitos de sistemas musicais. · Ser acessível, útil e usável pelos seus usuários (notadamente alunos e educadores musicais). Esse protótipo - INTERVALOS, que visa auxiliar o ensino/aprendizagem da teoria de intervalos, arpejos e escalas musicais - é uma ferramenta que pode ser integrada a um ambiente mais completo de educação musical na Web, incluindo as demais tecnologias da Internet necessárias para implementar Ensino a Distancia de música nesse meio. INTERVALOS foi submetido a avaliações de usabilidade e avaliações pedagógicas, por meio das quais pretendemos validar o grau de adequação da fundamentação teórica (conceitos) e tecnológica (tecnologias) para educação musical baseada na Web.
Resumo:
O objetivo dessa dissertação foi estudar o trabalho das unidades operacionais da Empresa Brasileira de Correios e Telégrafos(ECT), identificar os problemas de ordem ergonômica e propor recomendações que minimizem seus efeitos negativos sobre a saúde dos trabalhadores. Foram coletados, sintetizados e discutidos, com os empregados, os dados sobre o trabalho das unidades operacionais, possibilitando a disseminação dos conceitos de ergonomia dentro da organização e o lançamento dos meios para a criação de uma cultura ergonãmica dentro da ECT.
Resumo:
Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.
Resumo:
Dois experimentos foram conduzidos com o objetivo de avaliar o desempenho de duas linhagens de frangos de corte (Hybro G e Hybro PG) em duas estações climáticas (verão e inverno), alimentados com dietas formuladas pelo conceito Proteína Bruta (PB) ou Proteína Ideal (PI), de 1 a 42 dias de idade em ambos os sexos. Também foram avaliados os dados de abate, composição da carcaça e análise econômica comparativa entre os dois conceitos. O delineamento utilizado foi um fatorial 2 x 2, com 6 repetições de 20 aves cada. Na análise estatística dos resultados, verificou-se que, nas duas estações climáticas os machos PB consumiram mais que os PI; entre as fêmeas não houve diferença significativa para consumo. No verão as fêmeas PI ganharam mais peso corporal que as PB, para machos não houve diferença no ganho de peso; no inverno machos e fêmeas do PI ganharam mais peso que as aves do conceito PB e, quanto às linhagens, a PG foi superior a G. A conversão alimentar foi melhor para machos do que para fêmeas, principalmente no verão. Para o rendimento de peito as aves PI, a linhagem PG e as fêmeas mostraram-se superiores ao grupo PB, linhagem G e aos machos. A percentagem de gordura abdominal foi maior para fêmeas e para as aves PB. O aminograma evidenciou uma maior quantidade de Met, Lis, M+C e Tre no verão e M+C no inverno, nas carcaças dos machos PI. Na análise econômica dos dois experimentos foi observado que é mais viável a formulação de dietas pelo conceito proteína ideal, e formuladas segundo o respectivo sexo.
Resumo:
O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.