107 resultados para Algoritmos de computador


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta uma pesquisa que teve por objetivo descobrir qual a relação das crianças com a Internet e mais especificamente com os sites. Tendo como interlocutores cinco crianças que moram em uma mesma Vila Residencial, a pesquisa, que aconteceu neste espaço, pautou-se em questões do cotidiano, para investigar os usos que as crianças fazem dos sites que acessam. Os desafios de pesquisar em espaços particulares, onde questões como amizade, autoridade e metodologia de pesquisa ganharam destaque, fizeram-se presentes em todo o processo: do campo à escrita do texto. Uma grande questão que perpassa a discussão metodológica é sobre como, ao pesquisar através dos jogos, surge o desafio em conciliar os papéis de pesquisadora e jogadora. As reflexões sobre a construção de uma metodologia de pesquisa em espaços particulares contou com a contribuição de autores como Nilda Alves, Mikhail Bakhtin, Marília Amorim, Angela Borba, Fabiana Marcello dentre outros. As questões do cotidiano foram feitas a partir do debate principalmente com Michel de Certeau. As reflexões mais específicas sobre a Internet foram feitas a partir do que emergiu em campo, com as crianças, e contaram com o auxílio de, entre outros, André Lemos, Edméa Santos, Lucia Santaella e Marco Silva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O perfeito entendimento de deslizamentos de terra tem sido objeto de grande interesse na engenharia geotécnica há muitos anos. Encostas naturais representam um desafio constante para os engenheiros, mais do que os taludes artificiais. Não é incomum que os escorregamentos causam perdas de vidas humanas e também danos materiais. As informações obtidas a partir de retro-análise de casos históricos, têm servido como uma ferramenta valiosa para a compreensão da estabilidade de taludes. Vale a pena notar que o primeiro método de cálculo de estabilidade de taludes, usando divisão de fatia, foi desenvolvido após um acidente na Noruega. Métodos de estabilidade por Equilíbrio Limite, desenvolvidos no século passado são atualmente utilizados na prática da engenharia. Apesar de suas deficiências, eles provaram ser confiáveis na determinação do Fator de Segurança. A geometria 2D e a abordagem completa da condição saturada são provavelmente as questões mais relevantes dos métodos atuais. A condição do solo não saturado está geralmente presente em taludes naturais e os métodos ignoram a influência da sucção do solo sobre a estabilidade do talude. O desenvolvimento de computadores no meio do século passado, tornaram os cálculos Equilíbrio Limite fáceis de serem executados. Por outro lado, eles não podem explicar a natureza do problema ou prever o comportamento do solo antes da ruptura. A década de 1960 marcou o início do desenvolvimento de programas de computador baseados em métodos numéricos que, entre outros, destaca-se, em geotecnia, a aplicação dos métodos de Elementos Finitos (FEM). Este método é ideal para muitos fins, uma vez que permite a simulação da sequência de construção e também a incorporação de diferentes modelos constitutivos. Este trabalho mostra a influência da sucção sobre a estabilidade de encostas naturais. Uma retroanálise de um escorregamento no Morro dos Cabritos, no Rio de Janeiro, foi feita através de um programa de análise de tensão (Plaxis 2D). Os resultados foram comparados com o FS obtido por programa de Equilíbrio Limite (Slide v5). O efeito de sucção do solo foi incorporada nas análises, através de sua influência sobre os parâmetros de resistência do solo e por diferentes possibilidades de infiltração de água na encosta. Este caso histórico foi estudado anteriormente por Gerscovich (1994), que na época, fez analise de fluxo e estabilidade utilizando um abordagem de Equilíbrio Limite 3D. Os resultados mostraram boa concordância entre a análise de Elementos Finitos e a simulação de Equilíbrio Limite, sem a presença de nível de água. Os resultados confirmaram que foi necessário haver pressões positivas para explicar a ruptura do talude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta Tese desenvolvemos várias abordagens "Darbouxianas"para buscar integrais primeiras (elementares e Liouvillianas) de equações diferenciais ordinárias de segunda ordem (2EDOs) racionais. Os algoritmos (semi-algoritmos) que desenvolvemos seguem a linha do trabalho de Prelle e Singer. Basicamente, os métodos que buscam integrais primeiras elementares são uma extensão da técnica desenvolvida por Prelle e Singer para encontrar soluções elementares de equações diferenciais ordinárias de primeira ordem (1EDOs) racionais. O procedimento que lida com 2EDOs racionais que apresentam integrais primeiras Liouvillianas é baseado em uma extensão ao nosso método para encontrar soluções Liouvillianas de 1EDOs racionais. A ideia fundamental por tras do nosso trabalho consiste em que os fatores integrantes para 1-formas polinomiais geradas pela diferenciação de funções elementares e Liouvillianas são formados por certos polinômios denominados polinômios de Darboux. Vamos mostrar como combinar esses polinômios de Darboux para construir fatores integrantes e, de posse deles, determinar integrais primeiras. Vamos ainda discutir algumas implementações computacionais dos semi-algoritmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa tem como objetivo documentar o processo de redução de riscos e incertezas de um jogo eletrônico em desenvolvimento por meio da aplicação de métodos de avaliação de Usabilidade. Foi realizado um estudo de caso da utilização de métodos e técnicas de avaliação de Usabilidade durante a produção do jogo eletrônico Dungeonland, conduzido entre 2010 a 2013 ao longo de diversas iterações do produto, da pré-produção ao lançamento. Foram utilizados os métodos de observação direta baseada em problemas, avaliação cooperativa, questionário e entrevista semi-estruturada. Os dados coletados demonstram a evolução do design do jogo, as diferentes metodologias empregadas em cada estágio de desenvolvimento, e o impacto da avaliação no projeto. Apesar de problemas e limitações no emprego dos testes de Usabilidade no produto em questão, o impacto da avaliação foi visto como muito grande e muito positivo pelos desenvolvedores - através de dados qualitativos como protocolos verbais e de gameplay de usuários, e de dados quantitativos sobre suas experiências com o produto que possam ser comparados estatisticamente, os desenvolvedores de jogos têm à sua disposição poderosas ferramentas para estabelecer processos de Design claros, centrados no usuário, e que ofereçam um ambiente onde problemas são rapidamente identificados e soluções são validadas com usuários reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A complexidade do fenômeno comunicacional desafia estudiosos do campo na atualidade, principalmente no âmbito dos ambientes sociais. O processo de interação mediada, por exemplo, ganhou grandes proporções na virada do século XXI com o advento das Tecnologias de Informação e de Comunicação (TIC). Os suportes tecnológicos eletrônicos ou computacionais passaram a nortear grande parte do entretenimento e da comunicação. Nesse caminho esta pesquisa analisa novas práticas de comunicação na atualidade e aponta como os jogos eletrônicos, ou também chamados games, vêm se conjugando nos processos de mediação nessas práticas. O trabalho envolve os jogos para computador, mais especificamente os chamados jogos casuais. O objeto de estudo são os tipos de interação social em jogos casuais online e o corpus de análise é o EcoCity, um jogo de simulação com final aberto que funciona nos sites de serviço de rede social. A abordagem da construção de cidades sustentáveis no game traz fatores ambientais à cena. A hipótese é que a socialização em torno desses fatores podem de alguma forma agregar valor nos usos e apropriações que os indivíduos fazem dos jogos casuais durante os processos comunicativos e interativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente pesquisa tem por objetivo analisar a interação de alunos com deficiência intelectual com a linguagem escrita num ambiente virtual de aprendizagem desenvolvido com a finalidade de implementar atividades de letramento. Baseando-se nos fundamentos da teoria sócio-histórica sobre cultura, aprendizagem e desenvolvimento, o presente estudo almeja trazer contribuições para os estudos sobre alfabetização e letramento de pessoas com deficiência intelectual, com a utilização de instrumentos culturais de aprendizagem da cibercultura. Foram seguidos os princípios da abordagem qualitativa, tendo em vista a necessidade de observar e reconhecer os sujeitos em sua individualidade, considerando-os em seu meio sócio-cultural. O referencial metodológico utilizado é a pesquisa-ação crítico-colaborativa. Os resultados do estudo foram organizados em quatro categorias: histórico escolar relatos de sobrevivência; a proteção das famílias; os professores e a construção de uma prática; o uso da tecnologia possibilidades de resgate cultural. As duas primeiras buscam analisar fatores relacionados ao histórico escolar e familiar, que forneçam indícios para a compreensão da constituição dos sujeitos (alunos) como adolescentes ou jovens que não sabem ler e as duas últimas discutem a construção das práticas de letramento, no que diz respeito ao envolvimento dos professores e às possibilidades de aproximação dos alunos com deficiência intelectual à cultura, proporcionadas pelo uso do computador. O ambiente virtual de aprendizagem possibilitou o desenvolvimento de uma prática pedagógica voltada para atender às necessidades educacionais especiais destes alunos e compreender as características de seu processo de internalização da escrita, a partir da mediação do instrumento cultural de aprendizagem e da ação do professor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho são utilizados a técnica baseada na propagação de ondas acústicas e o método de otimização estocástica Luus-Jaakola (LJ) para solucionar o problema inverso relacionado à identificação de danos em barras. São apresentados o algoritmo algébrico sequencial (AAS) e o algoritmo algébrico sequencial aperfeiçoado (AASA) que modelam o problema direto de propagação de ondas acústicas em uma barra. O AASA consiste nas modificações introduzidas no AAS. O uso do AASA resolve com vantagens o problema de identificação de danos com variações abruptas de impedância. Neste trabalho são obtidos, usando-se o AAS-LJ e o AASA-LJ, os resultados de identificação de cinco cenários de danos. Três deles com perfil suave de impedância acústica generalizada e os outros dois abruptos. Além disso, com o objetivo de simular sinais reais de um experimento, foram introduzidos variados níveis de ruído. Os resultados alcançados mostram que o uso do AASA-LJ na resolução de problemas de identificação de danos em barras é bastante promissor, superando o AAS-LJ para perfis abruptos de impedância.