39 resultados para Iteração


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O esquema iterativo de fonte de espalhamento (SI) é tradicionalmente aplicado para a convergência da solução numérica de malha fina para problemas de transporte de nêutrons monoenergéticos na formulação de ordenadas discretas com fonte fixa. O esquema SI é muito simples de se implementar sob o ponto de vista computacional; porém, o esquema SI pode apresentar taxa de convergência muito lenta, principalmente para meios difusivos (baixa absorção) com vários livres caminhos médios de extensão. Nesta dissertação descrevemos uma técnica de aceleração baseada na melhoria da estimativa inicial para a distribuição da fonte de espalhamento no interior do domínio de solução. Em outras palavras, usamos como estimativa inicial para o fluxo escalar médio na grade de discretização de malha fina, presentes nos termos da fonte de espalhamento das equações discretizadas SN usadas nas varreduras de transporte, a solução numérica da equação da difusão de nêutrons em grade espacial de malha grossa com condições de contorno especiais, que aproximam as condições de contorno prescritas que são clássicas em cálculos SN, incluindo condições de contorno do tipo vácuo. Para aplicarmos esta solução gerada pela equação da difusão em grade de discretização de malha grossa nas equações discretizadas SN de transporte na grade de discretização de malha fina, primeiro implementamos uma reconstrução espacial dentro de cada nodo de discretização, e então determinamos o fluxo escalar médio em grade de discretização de malha fina para usá-lo nos termos da fonte de espalhamento. Consideramos um número de experimentos numéricos para ilustrar a eficiência oferecida pela presente técnica (DSA) de aceleração sintética de difusão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dada a persistente restrição da presença feminina em diferentes espaços-tempos das sociedades contemporâneas, desenvolvemos esta pesquisa com o objetivo de discutir os significados atribuídos ao feminino em materiais didáticos da atualidade. Partindo da hipótese de que a educação escolar, embora não determine, participa dos processos sociais que resultam em tal quadro de subalternização da mulher, focalizamos as apostilas utilizadas pelos anos finais do ensino fundamental das escolas públicas da rede da Secretaria Municipal de Educação da Cidade do Rio de Janeiro, durante o ano de 2013. Foram selecionadas as apostilas das disciplinas Ciência, História e Matemática. Desenvolvemos também estudo sobre a apropriação da noção de gênero na produção acadêmica recente da pesquisa em Educação, de modo a mapear e discutir sobre esta outra importante instância de atribuição de sentido ao ser mulher. Em diálogo com o filósofo Jacques Derrida e suas teorizações sobre os processos sociais de construção de sentidos, nossas análises se basearam no entendimento de que as palavras possuem significados instáveis, provisórios e precários, instituídos de modo relacional e diferencial. Com as teorizações de Joan Scott e Judith Butler, trazemos as proposições de Derrida para pensar os mecanismos de produção do feminino no social, através do conceito de gênero e da noção de identidade performativa. Entre os resultados construídos, está a invisibilidade que a história das mulheres apresenta no material de História, a naturalização de funções apresentadas como femininas nas apostilas de Ciência e a reprodução de concepções tradicionais sobre o lugar de meninas e meninos no corpus de Matemática. Mas concluímos também que os materiais didáticos pesquisados já possuem concepções menos sexistas na forma de significar o feminino, observando-se deslocamentos que sugerem certa hibridação. Porém, esses deslocamentos são inseridos nos textos de forma tímida, fazendo com que os postulados com maior poder de iteração sejam aqueles que ainda reproduzem velhas formas de ser mulher e de ser homem, podendo reforçar os estereótipos de gênero, caso não haja acesso a informações que se contraponham às encontradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos temos vindo a assistir a uma mudança na forma como a informação é disponibilizada online. O surgimento da web para todos possibilitou a fácil edição, disponibilização e partilha da informação gerando um considerável aumento da mesma. Rapidamente surgiram sistemas que permitem a coleção e partilha dessa informação, que para além de possibilitarem a coleção dos recursos também permitem que os utilizadores a descrevam utilizando tags ou comentários. A organização automática dessa informação é um dos maiores desafios no contexto da web atual. Apesar de existirem vários algoritmos de clustering, o compromisso entre a eficácia (formação de grupos que fazem sentido) e a eficiência (execução em tempo aceitável) é difícil de encontrar. Neste sentido, esta investigação tem por problemática aferir se um sistema de agrupamento automático de documentos, melhora a sua eficácia quando se integra um sistema de classificação social. Analisámos e discutimos dois métodos baseados no algoritmo k-means para o clustering de documentos e que possibilitam a integração do tagging social nesse processo. O primeiro permite a integração das tags diretamente no Vector Space Model e o segundo propõe a integração das tags para a seleção das sementes iniciais. O primeiro método permite que as tags sejam pesadas em função da sua ocorrência no documento através do parâmetro Social Slider. Este método foi criado tendo por base um modelo de predição que sugere que, quando se utiliza a similaridade dos cossenos, documentos que partilham tags ficam mais próximos enquanto que, no caso de não partilharem, ficam mais distantes. O segundo método deu origem a um algoritmo que denominamos k-C. Este para além de permitir a seleção inicial das sementes através de uma rede de tags também altera a forma como os novos centróides em cada iteração são calculados. A alteração ao cálculo dos centróides teve em consideração uma reflexão sobre a utilização da distância euclidiana e similaridade dos cossenos no algoritmo de clustering k-means. No contexto da avaliação dos algoritmos foram propostos dois algoritmos, o algoritmo da “Ground truth automática” e o algoritmo MCI. O primeiro permite a deteção da estrutura dos dados, caso seja desconhecida, e o segundo é uma medida de avaliação interna baseada na similaridade dos cossenos entre o documento mais próximo de cada documento. A análise de resultados preliminares sugere que a utilização do primeiro método de integração das tags no VSM tem mais impacto no algoritmo k-means do que no algoritmo k-C. Além disso, os resultados obtidos evidenciam que não existe correlação entre a escolha do parâmetro SS e a qualidade dos clusters. Neste sentido, os restantes testes foram conduzidos utilizando apenas o algoritmo k-C (sem integração de tags no VSM), sendo que os resultados obtidos indicam que a utilização deste algoritmo tende a gerar clusters mais eficazes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado, Engenharia Biológica, Faculdade de Engenharia de Recursos Naturais, Universidade do Algarve, 2009

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this dissertation we present a model for iteration of Katsuno and Mendelzon’s Update, inspired in the developments for iteration in AGM belief revision. We adapt Darwiche and Pearls’ postulates of iterated belief revision to update (as well as the independence postulate proposed in [BM06, JT07]) and show two families of such operators, based in natural [Bou96] and lexicographic revision [Nay94a, NPP03]. In all cases, we provide a possible worlds semantics of the models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise da iteração solo-estrutura em fundações é um importante campo de pesquisa que ainda tem um grande progresso a ser feito. No presente trabalho foi desenvolvido um programa computacional para a análise da interação solo-estrutura de fundações de concreto armado. Este tema abrange duas áreas da engenharia civil: estruturas e geotecnia. O método dos elementos finitos foi usado no trabalho na seqüência para resolver o problema considerando estado plano de defonnação e comportamento elastoplásti.co dos materiais estudados (solo, concreto e aço). A linguagem de programação MATLAB foi usada em toda esta pesquisa como alternativa ao FORTRAN. O MATLAB foi escolhido uma vez que é uma linguagem de programação que permite facilmente construir uma interfàce de pré e pósprocessamento amigável. Os passos para a solução completa do problema foram os seguintes: Primeiramente um programa foi desenvolvido considerando o comportamento elastoplástico com critérios de plastificação e ruptura específicos para o concreto e solo. Soluções analíticas fechadas foram usadas para checar a precisão do programa. O segundo passo foi a introdução do reforço de aço no concreto por meio de um modelo para armaduras. Logo após, um modelo de fissuras para o concreto 1racionado foi in1roduzido no programa. Na seqüência o programa de pré e pós-processamento foi desenvolvido para gerar a malha de elementos finitos (pré-processamento), distribuição tensões e deformações, mapa de fissuras, etc (pósprocessamento). Finalmente, os parâme1ros constitutivos do solo, concreto e aço foram calibrados e várias situações reais de interação do solo-concreto de fundações de concreto armado foram simuladas. Nesta dissertação são encontrados resultados para as pressões de contato sapata-solo. Diferentes diagramas de tensões de interfàce foram obtidos em função rigidez relativa do elemento estrutural de concreto armado-solo. Na análise mnnérica, rigidez relativa desempenhou uma relevante função no comportamento mecânico do elemento estrutural de concreto armado (sapata) e da base de assentamento (solo), uma vez ruptura em ambos os casos esteve diretamente relacionada a esta grandeza. São encon1rados, em função da rigidez relativa, resultados indicativos dos modos de falha da fundação, excessiva plastificação do solo em fundações com rigidez relativa alta, e a plastificação armaduras, esmagamento do concreto, formação de fissuras, bielas e confinamento concreto para fundações de rigidez relativa baixa. Na análise numérica, obteve-se resultados importantes com relação ao projeto de fundações. Estes resultados foram cOnITontadoscom normas, destacando-se as discordâncias com relação às recomendações da nonna brasileira Projeto e Execução de Fundações" NBR-6122 (1996) para os diagramas de tensões interface sapata-solo usados no dimensionamento de fundações de concreto armado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho se propõe um avanço para a Técnica Transformada Integral Generalizada, GITT. O problema transformado, usualmente resolvido por subrotinas numéricas, é aqui abordado analiticamente fazendo-se uso da Transformada de Laplace. Para exemplificar o uso associado destas duas transformadas integrais, resolvem-se dois problemas. Um de concentração de poluentes na atmosfera e outro de convecção forçada com escoamento laminar, entre placas planas paralelas, com desenvolvimento simultâneo dos perfis térmico e hidrodinâmico. O primeiro é difusivo, transiente e com coeficientes variáveis. Sua solução é obtida de forma totalmente analítica. Além de mostrar o uso da técnica, este exemplo apesar de ter coeficientes variáveis, é resolvido com o auxílio de um problema de autovalores associado com coeficientes constantes. No segundo, obtém-se a solução da Equação da Energia analiticamente. Já a Equação da Conservação do Momentum é linearizada e resolvida de forma iterativa. A solução de cada iteração é obtida analiticamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho procuramos analisar alguns métodos iterativos e os processos de aceleração na solução lineares grandes e esparsos, associando o uso de alguns pré-condicionadores, tais como os métodos de fatoração incompleta. De forma mais específica, nos detivemos no estudo deos métodos de fatoração incompleta LU, ou ILU, e o método de Cholesky incompleto. Para isso procuramos antes definir algumas especificidades sobre esses métodos, tais como, crtérios de existência, limitação. Alguns fatores analisam tais problemas e sugerem algumas técnicas de conserto, ou seja, algumas maneiras de eliminar tais falhas para que os métodos de iteração possam ser utlizados para determinar soluções mais próximas da solução real. Procedemos a uma revisão teórica de alguns dos métodos iterativos, dos pré-condicionadores. Jacobi, fatoração incompleta LU e fatoração incompleta de Cholesky e a sua associação com os métodos iterativos GMRES e Gradiente Conjugado. Utilizando os pré-condionadores associados aos métodos iterativos citados e fixando alguns parâmetros de parada, aplicamos algusn testes. Os resultados e a análise dos mesmos encontram-se neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is about change, discontinuity, instability. The theoretical perspective used to analyses the changing process was Institutional Theory, which argues that institutions has a long-term time. The institutional change has always be seen as a structural process and a incremental one, but this research aimed rescue the dynamic side of institutional change, understanding that as a result of deinstitutionalization and institutionalization processes. In order to understand the deinstitutionalization and institutionalization processes, we try to understand the concepts of interactive and iterative. So, it was possible understand that these process are interdependent and has to be understood as both side of institutional change. Nevertheless, it couldn¿t have an institutional vacuum, but a hybrid order or plural one, where a set of institutional forces would find its legitimacy. The Discourses Analysis supports this research, which was developed in Peru. A group of University professors was interviewed and we noticed that there are a lot of practices that act as micro institutional rules. In that way, we can admit that there is no vacuum, but a plural institutional order.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trata-se de um estudo desenvolvido com o objetivo de esclarecer a construção de esquemas multiplicativos em alunos do Ensino Fundamental, tendo em vista o aprimoramento da aprendizagem da matemática. Justifica-se a preocupação com a operação de multiplicar, por ser nessa aprendizagem que muitos alunos iniciam uma carreira de insucessos na matemática, uma vez que a multiplicação implica mudanças qualitativamente importantes no desenvolvimento cognitivo dos alunos. Foram feitas entrevistas clínicas com 45 sujeitos, de 3ª a 5ª série. Buscaram-se respostas para o problema de como acontece o avanço dos conceitos implícitos de multiplicação, relacionados com as seqüências numéricas iniciais para o esquema iterativo de multiplicação, relacionado com a coordenação parte-todo, com a reversibilidade e com a iteração. Os fundamentos teóricos, na sua maior parte, foram colhidos na Epistemologia Genética. Nesse sentido, foram estudadas, especialmente, as raízes epistemológicas do conhecimento matemático, a natureza e o papel da abstração reflexionante e a tomada de consciência. As entrevistas clínicas abrangeram a investigação dos esquemas de seqüências numéricas, dos esquemas de unidades compostas, dos esquemas prémultiplicativos e dos esquemas multiplicativos Os resultados mostram que - o desenvolvimento da multiplicação se inicia com esquemas de seqüências numéricas, passa pelos esquemas de unidades compostas e esquemas prémultiplicativos, na direção dos esquemas multiplicativos; - a falta de esquemas prévios compromete o desenvolvimento dos esquemas multiplicativos, pois a multiplicação resulta de modificações nas seqüências de números desenvolvidas pela criança, em qualquer fase do seu desenvolvimento numérico; - os primeiros esquemas multiplicativos, relacionados com as seqüências numéricas iniciais, envolvem o uso intenso dos dedos e da contagem um a um; quando as crianças utilizam esquemas de seqüências numéricas implícitas, a utilização dos dedos decresce progressivamente, até que seu uso se torna imperceptível. Por fim, os esquemas consolidam-se. As crianças dão respostas imediatas, não fazendo uso dos dedos, da contagem ou da adição. Vão direto à multiplicação, utilizando esquemas de seqüências numéricas explícitas. Daqui para diante, um tema importante a ser pesquisado se refere aos fatores que mantêm um número considerável de crianças presas aos esquemas multiplicativos rudimentares, relacionados com as seqüências numéricas iniciais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this dissertation we present a model for iteration of Katsuno and Mendelzon’s Update, inspired in the developments for iteration in AGM belief revision. We adapt Darwiche and Pearls’ postulates of iterated belief revision to update (as well as the independence postulate proposed in [BM06, JT07]) and show two families of such operators, based in natural [Bou96] and lexicographic revision [Nay94a, NPP03]. In all cases, we provide a possible worlds semantics of the models.