837 resultados para Algoritmos de computador


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho procuramos observar uma comunidade virtual no IRC (Internet Relay Chat), o canal #Pelotas. A partir de seu estudo, sob o viés da Grounded Theory, procuramos construir categorias básicas sobre diversos aspectos encontrados na comunidade, tais como questões de identidade, gênero e as próprias relações e convenções sociais. Ao mesmo tempo, procuramos construir um conceito de comunidade virtual que abarque nosso entendimento e os resultados da pesquisa empírica. Deste modo, sob vários aspectos, é possível analisar uma comunidade virtual, e principalmente, o modo sobre o qual ela se estrutura através da Comunicação Mediada por Computador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesse trabalho apresentamos algoritmos adaptativos do M´etodo do Res´ıduo M´ınimo Generalizado (GMRES) [Saad e Schultz, 1986], um m´etodo iterativo para resolver sistemas de equa¸c˜oes lineares com matrizes n˜ao sim´etricas e esparsas, o qual baseia-se nos m´etodos de proje¸c˜ao ortogonal sobre um subespa¸co de Krylov. O GMRES apresenta uma vers˜ao reinicializada, denotada por GMRES(m), tamb´em proposta por [Saad e Schultz, 1986], com o intuito de permitir a utiliza¸c˜ao do m´etodo para resolver grandes sistemas de n equa¸c˜oes, sendo n a dimens˜ao da matriz dos coeficientes do sistema, j´a que a vers˜ao n˜ao-reinicializada (“Full-GMRES”) apresenta um gasto de mem´oria proporcional a n2 e de n´umero de opera¸c˜oes de ponto-flutuante proporcional a n3, no pior caso. No entanto, escolher um valor apropriado para m ´e dif´ıcil, sendo m a dimens˜ao da base do subespa¸co de Krylov, visto que dependendo do valor do m podemos obter a estagna¸c˜ao ou uma r´apida convergˆencia. Dessa forma, nesse trabalho, acrescentamos ao GMRES(m) e algumas de suas variantes um crit´erio que tem por objetivo escolher, adequadamente, a dimens˜ao, m da base do subespa¸co de Krylov para o problema o qual deseja-se resolver, visando assim uma mais r´apida, e poss´ıvel, convergˆencia. Aproximadamente duas centenas de experimentos foram realizados utilizando as matrizes da Cole¸c˜ao Harwell-Boeing [MCSD/ITL/NIST, 2003], que foram utilizados para mostrar o comportamento dos algoritmos adaptativos. Foram obtidos resultados muito bons; isso poder´a ser constatado atrav´es da an´alise das tabelas e tamb´em da observa ¸c˜ao dos gr´aficos expostos ao longo desse trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objeto de estudo deste trabalho: os sentidos produzidos na relação entre o usuário e o computador nos alunos em final de curso de graduação da Universidade Federal do Rio Grande do Sul no ano de 2002/2, descrevendo e analisando esses sentidos e seus reflexos na Sociedade do Conhecimento. Foram descritas e analisadas algumas respostas da coleta sobre a relação entre o usuário e o computador, observadas através das emoções, aprendizagem e linguagem, quais foram as relações trazidas e a produção de sentidos decorrentes dessa relação como facilitadores ou não da apropriação ao uso da máquina, visando a possibilidade de constituição da Sociedade do Conhecimento. O enfoque teórico está baseado em Maturana para compreender e analisar os resultados desta pesquisa. Trata-se de uma forma de olhar para o sujeito e sua relação com o computador, através das emoções, aprendizagem e linguagem e suas influências diretas no viver de cada um.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese trata de como o sistema SignWriting pode servir de suporte a uma nova proposta pedagógica ao ensino da escrita de língua de sinais e letramento para crianças surdas usuárias da Língua Brasileira de Sinais - Libras e da Língua de Sinais Francesa - LSF. Escrever deve ser uma atividade significativa para a criança. No caso da criança surda, a escrita fundamenta-se em sua competência na língua de sinais, sem precisar da intermediação da língua oral. A criança surda, quando em um ambiente onde ela e seus colegas se comunicam em língua de sinais, efetivamente tenta escrever sinais, quando é incentivada a fazê-lo. Em nossos experimentos, usamos o sistema SignWriting para mostrar ás crianças surdas (e a seus pais e professores) como escrever textos em línguas de sinais de ambas as formas: manuscrita e impressa, usando o programa Sign Writer para editar textos em línguas de sinais. A base teórica que apóia a tese é a abordagem bilíngüe para a educação de surdos, a língua de sinais, a teoria de Piaget, e de Ferreiro quando trata das etapas da alfabetização em língua oral. Esta investigação possui um caráter exploratório, em que o delineamento metodológico é dado pela pesquisa-ação. O primeiro estudo apresenta um levantamento do processo de aquisição da escrita de sinais, em sua forma manuscrita, pela criança e jovem surdo no Brasil e na França. O segundo estudo trata da ajuda que a informática pode dar a essa aquisição e de como utilizamos os softwares de escrita de língua de sinais em aulas de introdução ao uso do computador e em transcrições da LSF de corpus vídeo para a escrita de língua de sinais. Os resultados sugerem que as crianças evoluem em sua escrita, pois muitos signos que elas escreveram não foram sugeridos pela experimentadora, nem por outro meio, mas surgiram espontaneamente. A introdução de um software como o Sign Writer ou o SW-Edit nas classes para introduzir as TI traz a essas aulas muito maior interesse do que quando usamos um editor de textos na língua oral. Também as produções das crianças são mais sofisticadas. As conclusões indicam que a escrita de língua de sinais incorporada à educação das crianças surdas pode significar um avanço significativo na consolidação de uma educação realmente bilíngüe, na evolução das línguas de sinais e aponta para a possibilidade de novas abordagens ao ensino da língua oral como segunda língua.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho tem como objetivo estudar as repercussões do emprego de recursos informáticos aplicados ao projeto arquitetônico e da sua interação com o usuário. A relação entre computação gráfica e projeto arquitetônico é um assunto já bastante discutido, seja como a aplicação do potencial matemático da ferramenta para a composição das formas, ou ainda, como experimentações no campo da realidade virtual. No entanto, sob o ponto de vista do projeto arquitetônico e da sua apropriação da ferramenta pouco se tem dito, é nesta lacuna que a dissertação pretende se inserir. Desenvolvo a questão em duas partes principais. A primeira tem o objetivo de situar o leitor no assunto proposto, procurando possíveis repostas para relação entre usuário/projeto/máquina. A segunda parte se concentra no projeto arquitetônico como forma de investigação, amparada em um estudo de caso, resultado da observação do atelier. Procuro tecer as relações entre o projeto dos alunos, como resposta às instruções dos professores, e o uso da computação gráfica na composição do projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema proposto para esta pesquisa tem como objetivo analisar os efeitos no mecanismo de formação de preços em um mercado digital decorrentes da adoção por parte de seus integrantes de agentes de software inteligentes que participem no processo decisório de compra e venda sob diferentes estratégias de negociação. Para tanto é realizado um estudo por simulação em computador da introdução em um mercado digital de participantes que utilizem tais recursos e mede-se o efeito de tal procedimento no preço de mercado decorrente das estratégias adotadas pelos diferentes agentes. A evolução tecnológica da informática nos últimos 30 anos foi enorme, sendo a forma mais visível o aumento da potência dos computadores e das possibilidades de interconexão dos mesmos. Por outro lado o ambiente de negócios caminhou em paralelo com este aumento, tendo contribuido para este desenvolvimento a rápida globalização dos mercados que comecou a ser sentida na década de 80 e hoje é vivenciada com todo o seu vigor pelas empresas em geral. Criou-se na verdade um ambiente em que demandas de negócio originadas pela globalização eram transferidas para as empresas provedoras de tecnologia, as quais por sua vez respondiam a este "drive" de negócios com inovações que permitiam as empresas incrementar seus resultados. Esta evolução sempre ocorreu através de transformações nos processos internos das empresas. No entanto, as facilidades de conexão dos sistemas, que a princípio serviram para interligar ilhas dentro das corporações, atingiram um nível tal de utilização que permitiram a interconexão rápida, barata e universal de todas ( ou quase todas ) as empresas em um ambiente comum. Neste momento cruzou-se um barreira qualitativa, pois os sistemas de informática deixaram de apenas melhorar a execução dos processos de negócios, passando a altera-los. A combinação destes fatores, gerou na verdade um novo segmento industrial, o das empresas e mercados virtuais, que ao interagir com os segmentos tradicionais, altera-os gerando oportunidades de negócio antes não existentes. Por terem se originado de transformações na economia tradicional, possuem elementos em comum, porém por representarem uma forma radicalmente nova de realizar negócios, possuem fatores com pesos diferentes ou até mesmo exclusivos. Um dos fatores que se apresentam como novos neste contexto é o da possibilidade de utilização em larga escala de agentes de software inteligentes os quais auxiliam e até mesmo realizam o processo de tomada de decisão de compra e venda. A análise dos efeitos destes fatores através de um modelo de simulação é o tema que será exposto no trabalho a seguir. Para tanto será apresentado um histórico da evolução tecnológica que proporcionou o surgimento dos mercados virtuais e como esta evolução afetou conceitos tradicionais de mercado. Em seguida serão apresentadas as bases de avaliação de um mercado digital. Em termos de pesquisa de campo, serão conduzidas análises de estudo de caso envolvendo empresas de um determinado setor industrial que esteja utilizando este conceito de mercado, de modo a determinar como os agentes de e-commerce estão sendo utilizados. Estes dois estudos ( teórico e de campo ) serão por último combinados em um modelo que servirá de base para a avaliação da existência ou não de efeitos no preço em um mercado digital. O método de avaliação do modelo será o da simulação. Espera-se com isto determinar se a adoção de diferentes estratégias de negociação por parte dos agentes tem ou não um efeito na formação do preço em tal tipo de mercado, bem como propor recomendações quanto ao uso de tais dispositivos em um determinado segmento de indústria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A área de pesquisa de testes não-destrutivos é muito importante, trabalhando com o diagnóstico e o monitoramento das condições dos componentes estruturais prevenindo falhas catastróficas. O uso de algoritmos genéticos para identificar mudanças na integridade estrutural através de mudanças nas respostas de vibração da estrutura é um método não-destrutivo que vem sendo pesquisado. Isto se deve ao fato de que são vantajosos em achar o mínimo global em situações difíceis de problemas de otimização, particularmente onde existem muitos mínimos locais como no caso de detecção de dano. Neste trabalho é proposto um algoritmo genético para localizar e avaliar os danos em membros estruturais usando o conceito de mudanças nas freqüências naturais da estrutura. Primeiramente foi realizada uma revisão das técnicas de detecção de dano das últimas décadas. A origem, os fundamentos, principais aspectos, principais características, operações e função objetivo dos algoritmos genéticos também são demonstrados. Uma investigação experimental em estruturas de materiais diferentes foi realizada a fim de se obter uma estrutura capaz de validar o método. Finalmente, se avalia o método com quatro exemplos de estruturas com danos simulados experimentalmente e numericamente. Quando comparados com técnicas clássicas de detecção dano, como sensibilidade modal, os algoritmos genéticos se mostraram mais eficientes. Foram obtidos melhores resultados na localização do que na avaliação das intensidades dos danos nos casos de danos propostos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo objetivou contribuir para um melhor entendimento do processo de informatização em nossas escolas, enfatizando uma vertente ainda pouco explorada pelos pesquisadores: as possíveis mudanças organizacionais decorrentes da utilização do microcomputador. Esta temática foi introduzida, nesta dissertação, a partir da contextualização de algumas das inúmeras dimensões pedagógicas, históricas, econômicas, políticas e sociais, que entremeadas, formam o intrincado tecido da informatização da educação. Para seu desenvolvimento, tornou-se necessário adaptar-se a proposta de Robert Shirley (1976) para o exame de mudanças organizacionais e utilizou-se de algumas categorias de análise sugeridas por Sheingold e outras (1983). Realizou-se uma pesquisa, em estabelecimento educacional localizado na zona oeste da cidade do Rio de Janeiro, que pode ser classificada como um estudo de caso de caráter exploratório. Nesta pesquisa foram empregadas a observação não participante, entrevistas padronizadas e não padronizadas, questionários e análise documental. Em relação às estratégias de mudança, não se constatou o aparecimento dos novos papéis, a preparação formal dos professores não atingiu a maior parte do corpo docente e o acesso aos microcomputadores, restrito aos alunos do primeiro segmento do 12 grau, viu-se bastante limitado. Os sistemas de coordenação revelaram-se bastante centralizados e a distribuição de pOder mostrou-se hierarquizada, com forte submissão à autoridade da família proprietária. Diante de tal quadro, a participação dos professores, apesar de solicitada pela coordenação de informática, era na verdade imposta pela direção. O software adotado pela instituição foi o LOGO, utilizado ao lado da análise do discurso da criança. A síntese dos resultados evidenciou o crescente processo de mercantilização do ensino em nosso país e do uso da informática como um novo atrativo para a matrícula de novos alunos. Como conseqOência disto, surge a necessidade de novos estudos para se confirmar a relevância pedagógica da informatização do ensino ou para constatar-se, em escolas preocupadas apenas com o faturamento, sua importância comercial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo trata das relações professor-aluno, - tal como estas ocorrem atualmente em nossas escolas e das possíveis modificações que poder~o advir do uso do computador na escola. Identificamos, inicialmente, as relações hoje existentes em nossas escolas entre professores e alunos como sendo de poder. Descrevemos, portanto, o que entendemos por poder, como este se manifesta na sala de aula e quais as suas consequências. Posteriormente, descrevemos o nosso ideal de escola, ou seja, uma escola onde as relações de poder n~o estejam presentes, onde professores e alunos trabalhem lado a lado na busca do saber. Passamos, então, ao estudo do computador na educação, visando identificar mudanças nas relações professor-aluno decorrentes de seu uso. Para tal, analisamos, primeiramente, as opiniões emitidas por diversos estudiosos do assunto. A seguir, relatamos os diversos usos do computador na sala de aula, identificando os elementos que podem propiciar mudanças. Finalmente, descrevemos os resultados da experiência que realizamos no Instituto de Educação do Rio de Janeiro. Concluímos que o uso do computador na sala de aula pode ocasionar mudanças positivas nas relações professor-aluno, rompendo, em maior ou menor escala, de acordo com o seu uso, com as relações de poder a que nos referimos anteriormente. Concluímos ainda que a preparação do profissional que irá lidar com o computador na sala de aula é de extrema importância, não apenas no sentido técnico, mas principalmente no sentido de ter claros em mente os objetivos que se pretendem alcançar através do uso do computador na escola.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O surgimento do computador provocou uma série de mudanças sócio-culturais. A educação não poderia ficar imune a essas alterações. Várias experiências do seu uso em educação surgiram, inicialmente em computadores de grande porte; posteriormente, com o surgimento dos microcomputadores, essas experiências se multiplicaram. Como esse equipamento vem sendo utilizado, avaliações já realizadas, alguns problemas existentes e perspectivas futuras são discutidas neste trabalho; que procura apresentar o Projeto Ciranda, implantado pela Embratel. Tendo como pano de fundo uma perspectiva educacional, discute a filosofia do projeto, seus objetivos e a população participante.