30 resultados para Algoritmos - conceitos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Partindo da definição de discurso interior e da análise do processo de formação de conceitos abstratos desenvolvidos pelo psicólogo Lev Vygotsky, faz-se uma aproximação com a teorização do cineasta Sergei Eisenstein sobre as possibilidades de incorporação do discurso interior pelo cinema. Analisam-se as relações entre o conteúdo eminentemente icônico das imagens cinematográficas e os aspectos sensoriais não-verbais presentes no discurso interior, indicados por Vygotsky, com o objetivo de investigar as formas como o discurso cinematográfico articula seus recursos expressivos através da montagem, visando reproduzir em sua organização formal os processos cognitivos que têm lugar no pensamento e que são expressos pelo discurso interior; para isso, o foco de análise centra-se nos métodos de montagem estabelecidos por Eisenstein. Investiga-se também os modos de produção de sentido através da articulação de signos icônicos não-verbais pela montagem cinematográfica, ressaltando o papel que os componentes afetivos da cognição e do intelecto desempenham no processo de produção de conceitos pelo cinema, especialmente o cinema caracterizado nos textos e reflexões teóricas de Eisenstein. Conclui-se que o tipo de discurso interior produzido pelo cinema em geral e o eisensteiniano em particular é aquele que foi definido por Vygotsky como discurso cotidiano ou espontâneo, motivado afetivamente e ligado ao contexto da situação concreta em que emerge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo primordial desse trabalho está concentrado no estudo de Curvas NURBS (B-spline Racional N˜ao-Uniforme). A literatura em português sobre NURBS é escassa, pouco difundida e os textos e artigos existentes tendem a ser rigorosos, longos e teóricos. Assim, o presente estudo está direcionado para os conceitos matemáticos de NURBS, para o qual foi utilizado uma ferramenta chamada DesignMentor com a finalidade de testar os algoritmos desses conceitos. NURBS são funções paramétricas que podem representar qualquer tipo de curva. NURBS são usadas em computação gráfica na indústria de CAD/CAM e estão sendo consideradas um padrão para criar e representar objetos complexos (indústria automobilística, aviação e embarcação). As ferramentas de criação gráfica mais sofisticadas provêem uma interface para usar NURBS, que são flexíveis suficiente para projetar uma grande variedade de formas. Hoje é possível verificar o uso expandido de NURBS, modelando objetos para as artes visuais, arte e escultura; também estão sendo usados para modelar cenas para aplicações de realidade virtual. NURBS trabalha bem em modelagem 3D, permitindo facilidade para manipular e controlar vértices, controlar curvatura e suavidade de contornos. NURBS provêm uma base matemática, unificada para representar formas analíticas e livres além de manter exatidão e independência de resolução matemática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se um método de desenvolvimento integrado baseado no paradigma de orientação a objetos, que visa abordar todo o ciclo de desenvolvimento de uma aplicação tempo real. Na fase de especificação o método proposto baseia-se no uso de restrições temporais padronizadas pelo perfil da UML-TR, sendo que uma alternativa de mapeamento destas restrições para o nível de programação é apresentada. Este mapeamento serve para guiar a fase de projeto, onde utilizou-se como alvo a interface de programação orientada a objetos denominada TAFT-API, a qual foi projetada para atuar junto ao ambiente de execução desenvolvido no âmbito desta tese. Esta API é baseada na especificação padronizada para o Java-TR. Este trabalho também discute o ambiente de execução para aplicações tempo real desenvolvido. Este ambiente faz uso da política de escalonamento tolerante a falhas denominada TAFT (Time-Aware Fault- Tolerant). O presente trabalho apresenta uma estratégia eficiente para a implementação dos conceitos presentes no escalonador TAFT, que garante o atendimento a todos os deadlines mesmo em situações de sobrecarga transiente. A estratégia elaborada combina algoritmos baseados no Earliest Deadline, sendo que um escalonador de dois níveis é utilizado para suportar o escalonamento combinado das entidades envolvidas. Adicionalmente, também se apresenta uma alternativa de validação dos requisitos temporais especificados. Esta alternativa sugere o uso de uma ferramenta que permite uma análise qualitativa dos dados a partir de informações obtidas através de monitoração da aplicação. Um estudo de caso baseado em uma aplicação real é usado para demonstrar o uso da metodologia proposta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesse trabalho apresentamos algoritmos adaptativos do M´etodo do Res´ıduo M´ınimo Generalizado (GMRES) [Saad e Schultz, 1986], um m´etodo iterativo para resolver sistemas de equa¸c˜oes lineares com matrizes n˜ao sim´etricas e esparsas, o qual baseia-se nos m´etodos de proje¸c˜ao ortogonal sobre um subespa¸co de Krylov. O GMRES apresenta uma vers˜ao reinicializada, denotada por GMRES(m), tamb´em proposta por [Saad e Schultz, 1986], com o intuito de permitir a utiliza¸c˜ao do m´etodo para resolver grandes sistemas de n equa¸c˜oes, sendo n a dimens˜ao da matriz dos coeficientes do sistema, j´a que a vers˜ao n˜ao-reinicializada (“Full-GMRES”) apresenta um gasto de mem´oria proporcional a n2 e de n´umero de opera¸c˜oes de ponto-flutuante proporcional a n3, no pior caso. No entanto, escolher um valor apropriado para m ´e dif´ıcil, sendo m a dimens˜ao da base do subespa¸co de Krylov, visto que dependendo do valor do m podemos obter a estagna¸c˜ao ou uma r´apida convergˆencia. Dessa forma, nesse trabalho, acrescentamos ao GMRES(m) e algumas de suas variantes um crit´erio que tem por objetivo escolher, adequadamente, a dimens˜ao, m da base do subespa¸co de Krylov para o problema o qual deseja-se resolver, visando assim uma mais r´apida, e poss´ıvel, convergˆencia. Aproximadamente duas centenas de experimentos foram realizados utilizando as matrizes da Cole¸c˜ao Harwell-Boeing [MCSD/ITL/NIST, 2003], que foram utilizados para mostrar o comportamento dos algoritmos adaptativos. Foram obtidos resultados muito bons; isso poder´a ser constatado atrav´es da an´alise das tabelas e tamb´em da observa ¸c˜ao dos gr´aficos expostos ao longo desse trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A descoberta e a análise de conglomerados textuais são processos muito importantes para a estruturação, organização e a recuperação de informações, assim como para a descoberta de conhecimento. Isto porque o ser humano coleta e armazena uma quantidade muito grande de dados textuais, que necessitam ser vasculhados, estudados, conhecidos e organizados de forma a fornecerem informações que lhe dêem o conhecimento para a execução de uma tarefa que exija a tomada de uma decisão. É justamente nesse ponto que os processos de descoberta e de análise de conglomerados (clustering) se insere, pois eles auxiliam na exploração e análise dos dados, permitindo conhecer melhor seu conteúdo e inter-relações. No entanto, esse processo, por ser aplicado em textos, está sujeito a sofrer interferências decorrentes de problemas da própria linguagem e do vocabulário utilizado nos mesmos, tais como erros ortográficos, sinonímia, homonímia, variações morfológicas e similares. Esta Tese apresenta uma solução para minimizar esses problemas, que consiste na utilização de “conceitos” (estruturas capazes de representar objetos e idéias presentes nos textos) na modelagem do conteúdo dos documentos. Para tanto, são apresentados os conceitos e as áreas relacionadas com o tema, os trabalhos correlatos (revisão bibliográfica), a metodologia proposta e alguns experimentos que permitem desenvolver determinados argumentos e comprovar algumas hipóteses sobre a proposta. As conclusões principais desta Tese indicam que a técnica de conceitos possui diversas vantagens, dentre elas a utilização de uma quantidade muito menor, porém mais representativa, de descritores para os documentos, o que torna o tempo e a complexidade do seu processamento muito menor, permitindo que uma quantidade muito maior deles seja analisada. Outra vantagem está no fato de o poder de expressão de conceitos permitir que os usuários analisem os aglomerados resultantes muito mais facilmente e compreendam melhor seu conteúdo e forma. Além do método e da metodologia proposta, esta Tese possui diversas contribuições, entre elas vários trabalhos e artigos desenvolvidos em parceria com outros pesquisadores e colegas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A utilização de versões permite o armazenamento de diferentes alternativas de projeto no desenvolvimento de uma aplicação. Entretanto, nem todo o histórico das alterações aplicadas sobre os dados é registrado. Modificações importantes podem ser realizadas e os valores anteriores são perdidos. O histórico completo somente é acessível através da junção de versões com um modelo temporal. Os conceitos de tempo e de versão aplicados em conjunto possibilitam a modelagem de aplicações complexas. Uma extensão que implemente simultaneamente estes dois conceitos em um banco de dados comercial não está disponível. O Modelo Temporal de Versões (TVM – Temporal Version Model) fornece a base para esta funcionalidade. O objetivo deste trabalho é projetar um extender para oferecer suporte aos conceitos de tempo e versão no sistema DB2, utilizando como base o TVM. A extensão engloba o mapeamento da hierarquia do TVM; a criação de tabelas administrativas; procedimentos para especificação das classes, atributos e relacionamentos; a definição de gatilhos e restrições para a manipulação dos dados diretamente nas tabelas criadas; e a especificação de procedimentos e UDFs para controle de versões e valores temporais e de outras UDFs que permitem consultas envolvendo os dois conceitos. Apesar do SGBD não ser totalmente orientado a objetos, como é definido no modelo utilizado (TVM), oferece mecanismos que permitem o mapeamento para um modelo objetorelacional. Através da utilização desta extensão, a união de tempo e de versões pode ser utilizada em aplicações reais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A textura é um atributo ainda pouco utilizado no reconhecimento automático de cenas naturais em sensoriamento remoto, já que ela advém da sensação visual causada pelas variações tonais existentes em uma determinada região da imagem, tornando difícil a sua quantificação. A morfologia matemática, através de operações como erosão, dilatação e abertura, permite decompor uma imagem em elementos fundamentais, as primitivas texturais. As primitivas texturais apresentam diversas dimensões, sendo possível associar um conjunto de primitivas com dimensões semelhantes, em uma determinada classe textural. O processo de classificação textural quantifica as primitivas texturais, extrai as distribuições das dimensões das mesmas e separa as diferentes distribuições por meio de um classificador de máxima-verossimilhança gaussiana. O resultado final é uma imagem temática na qual cada tema representa uma das texturas existentes na imagem original.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A compreensão e a produção de metáforas são consideradas habilidades necessárias para o desenvolvimento inicial do léxico e para a formação de conceitos. As teorias da metáfora conceitual de Lakoff e Johnson (1980; 2002) e das metáforas verbais como aproximações semânticas de Duvignau (2003) demonstram a importância das metáforas para o desenvolvimento do pensamento e da linguagem. O objetivo deste estudo é verificar o processo de analogia envolvido na formação de conceitos verbais em crianças no período inicial de aquisição da linguagem oral, através da tarefa de denominação de ações de vídeo. Utilizou-se um delineamento transversal, quasi-experimental, de grupos contrastantes. Comparando um grupo de 80 crianças de 2 a 4 anos com um grupo de 75 adultos universitários com idades entre 17 e 34 anos, constatou-se a presença da analogia nos dois grupos. Os dados foram analisados através do teste não-paramétrico U de Wilcoxon-Mann-Whitney (WMW) e do coeficiente de correlação para postos de Spearman. Os resultados foram estatisticamente diferentes para quase todas as variáveis estudadas. As crianças mostraram maior capacidade analógica nas primeiras respostas aos filmetes. Este resultado revelou que, quando não dispõem do léxico convencional para nomear uma ação, as crianças se utilizam de uma estratégia de aproximação semântica por analogia para expressar uma idéia. Os adultos, ao contrário, apresentaram um léxico altamente convencional. No entanto, quando solicitados a fornecer uma segunda alternativa de resposta aos filmetes, também apresentam aproximações semânticas por analogia. As aproximações podem ser do tipo intradomínio (sinonímia) e extradomínio (metáfora). O mesmo grupo de 80 crianças foi dividido em dois grupos com idades de 2 a 3 anos e de 3,1 a 4,4 anos, que foram comparados entre si. Os resultados mostraram diferenças estatisticamente significativas, demonstrando que as aproximações semânticas diminuem de freqüência conforme a idade avança, dando lugar a um léxico mais convencional e específico. O grupo de crianças brasileiras foi comparado com um grupo de crianças francesas da mesma faixa etária, sugerindo que há uma universalidade no uso das aproximações semânticas. Encontrou-se um percentual em torno de 35% de aproximações semânticas na faixa etária dos 2 aos 3 anos e 24% na faixa etária dos 3 aos 4 anos. A análise dos estímulos, realizada através da análise de agrupamento (cluster), demonstrou semelhanças e diferenças nos tipos de respostas aos filmetes. Os dados deste estudo são discutidos dentro da abordagem da psicolingüística cognitiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A área de pesquisa de testes não-destrutivos é muito importante, trabalhando com o diagnóstico e o monitoramento das condições dos componentes estruturais prevenindo falhas catastróficas. O uso de algoritmos genéticos para identificar mudanças na integridade estrutural através de mudanças nas respostas de vibração da estrutura é um método não-destrutivo que vem sendo pesquisado. Isto se deve ao fato de que são vantajosos em achar o mínimo global em situações difíceis de problemas de otimização, particularmente onde existem muitos mínimos locais como no caso de detecção de dano. Neste trabalho é proposto um algoritmo genético para localizar e avaliar os danos em membros estruturais usando o conceito de mudanças nas freqüências naturais da estrutura. Primeiramente foi realizada uma revisão das técnicas de detecção de dano das últimas décadas. A origem, os fundamentos, principais aspectos, principais características, operações e função objetivo dos algoritmos genéticos também são demonstrados. Uma investigação experimental em estruturas de materiais diferentes foi realizada a fim de se obter uma estrutura capaz de validar o método. Finalmente, se avalia o método com quatro exemplos de estruturas com danos simulados experimentalmente e numericamente. Quando comparados com técnicas clássicas de detecção dano, como sensibilidade modal, os algoritmos genéticos se mostraram mais eficientes. Foram obtidos melhores resultados na localização do que na avaliação das intensidades dos danos nos casos de danos propostos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem o objetivo de mostrar que o sujeito aprendente, ao se deparar com um conceito matemático já construído por ele, pode, em outro contexto, atribuir-lhe novos sentidos e re-significá-lo. Para tanto, a investigação se apóia em duas teorias filosóficas: a filosofia de Immanuel Kant e a filosofia de Ludwig Wittgenstein. Também buscamos subsídios teóricos em autores contemporâneos da filosofia da matemática, tais como Gilles-Gaston Granger, Frank Pierobon, Maurice Caveing e Marco Panza. No decorrer do processo da aprendizagem, o conceito matemático está sempre em estado de devir, na perspectiva do aluno, mesmo que este conceito seja considerado imutável sob o ponto de vista da lógica e do rigor da Matemática. Ao conectar o conceito com outros conceitos, o sujeito passa a reinterpretá-lo e, a partir desta outra compreensão, ele o reconstrói. Ao atribuir sentidos em cada ato de interpretação, o conceito do objeto se modifica conforme o contexto. As estruturas sintáticas semelhantes, em que figura o objeto, e as aparências semânticas provenientes da polissemia da linguagem oferecem material para as analogias entre os conceitos. As conjeturas nascidas destas analogias têm origem nas representações do objeto percebido, nas quais estão de acordo com a memória e a imaginação do sujeito aprendente. A imaginação é a fonte de criação e sofre as interferências das ilusões provenientes do ato de ver, já que o campo de visão do aluno está atrelado ao contexto no qual se encontra o objeto. A memória, associada às experiências vividas com o objeto matemático e à imaginação, oferece condições para a re-significação do conceito. O conceito antes de ser interpretado pelo aluno obedece às exigências e à lógica da matemática, após a interpretação depende da própria lógica do aluno. A modificação do conceito surge no momento em que o sujeito, ao interpretar a regra matemática, estabelece novas regras forjadas durante o processo de sua aplicação. Na contingência, o aluno projeta sentidos aos objetos matemáticos (que têm um automovimento previsto), porém a sua imaginação inventiva é imprevisível. Nestas circunstâncias, o conceito passa a ser reconstruível a cada ato de interpretação. As condições de leitura e de compreensão do objeto definem a construção do conceito matemático, a qual está em constante mudança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho de pesquisa foi investigar o desempenho de alunos que trabalharam com atividades de simulação e modelagem computacionais no estudo de circuitos elétricos, utilizando o software Modellus, comparado com alunos expostos apenas ao sistema tradicional de ensino. A fundamentação teórica adotada esteve baseada no referencial de trabalho de Halloun sobre modelagem esquemática e na teoria de Ausubel sobre aprendizagem significativa. O estudo envolveu 193 alunos de cursos de Engenharia, da disciplina de Física-II oferecida pela UFRGS no 2° semestre de 2004. O procedimento didático ocorreu em duas etapas. Na primeira, os alunos do grupo experimental trabalharam com um conjunto de atividades sobre circuitos elétricos simples durante cinco aulas e na etapa seguinte, com um conjunto de atividades sobre circuitos RLC durante quatro aulas. Cada aula teve duração de 1h40min. Os resultados quantitativos mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos alunos dos grupos de controle, expostos apenas ao método tradicional de ensino. Os resultados de nossa análise qualitativa sugerem que muitos dos alunos atingiram uma aprendizagem significativa. Nossas observações e o levantamento de opiniões mostraram que o procedimento didático adotado exigiu muita interação dos alunos com as atividades computacionais, dos alunos entre si e com o professor, tornando-se um elemento motivador na aprendizagem dos alunos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este texto apresenta a tese de doutorado em Ciência da Computação na linha de pesquisa de Inteligência Artificial, dentro da área de IAD – Inteligência Artificial Distribuída (mais especificamente os Sistemas Multiagentes – SMA). O trabalho aborda a formação de grupos colaborativos em um ambiente multiagente interativo de aprendizagem na web, através da utilização de técnicas de Inteligência Artificial. O trabalho apresenta a definição e implementação de uma arquitetura de agentes modelados com algoritmos genéticos, integrada a um ambiente colaborativo de aprendizagem, o TelEduc. Inicialmente faz-se um breve estudo sobre as áreas envolvidas na tese: Informática na Educação, Educação a Distância, Inteligência Artificial, Inteligência Artificial Distribuída e Inteligência Artificial Aplicada à Educação. Abordam-se, também, as áreas de pesquisa que abrangem os Sistemas Multiagentes e os Algoritmos Genéticos. Após este estudo, apresenta-se um estudo comparativo entre ambientes de ensino e aprendizagem que utilizam a abordagem de agentes e a arquitetura proposta neste trabalho. Apresenta-se, também, a arquitetura de agentes proposta, integrada ao ambiente TelEduc, descrevendo-se o funcionamento de cada um dos agentes e a plataforma de desenvolvimento. Finalizando o trabalho, apresenta-se o foco principal do mesmo, a formação de grupos colaborativos, através da implementação e validação do agente forma grupo colaborativo. Este agente, implementado através de um algoritmo genético, permite a formação de grupos colaborativos seguindo os critérios estabelecidos pelo professor. A validação do trabalho foi realizada através de um estudo de caso, utilizando o agente implementado na formação de grupos colaborativos em quatro turmas de cursos superiores de Informática, na Região Metropolitana de Porto Alegre, em disciplinas que envolvem o ensino de programação de computadores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.