995 resultados para Hiker Dice. Algoritmo Exato. Algoritmos Heurísticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado de la publicación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Monográfico con el título: 'Educación matemática y tecnologías de la información'. Resumen basado en el de la publicación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resúmen tomado parcialmente de la publicación.- El artículo forma parte de un monográfico dedicado a Psicología de las Matemáticas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El artículo forma parte de una sección monográfica dedicada a la escuela inclusiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La autora, tras revisar las teorías sobre la adquisición de la multiplicación, el proceso de construcción de las relaciones multiplicativas, y partiendo de una experiencia con niños sobre la utilización del algoritmo tipo red (S. XV) para un mejor aprendizaje de la multiplicación aritmética, inicia su investigación partiendo de la hipótesis de que este método basado en el producto cartesiano, se ajusta mejor a las estructuras del pensamiento, y por tanto, permite una mejor comprensión también en sujetos adultos. Compuesta por 17 sujetos entre 26 y 52 años, 16 mujeres y 1 hombre, pertenecientes a Educación Permanente de Adultos de Elda (Alicante), aunque la investigación sólo la finalizaron 4 sujetos por muerte experimental del 76'5 por ciento. La investigación utiliza un diseño de pretest-postest. Pruebas 'ad hoc' utilizadas en el pretest-postest que consistían en una serie de ítems que, independientemente dan información sobre los distintos aspectos de la multiplicación. Programa escolar utilizado para la enseñanza de la multiplicación. Resolución de problemas reales, cotidianos, de los sujetos por medio de la operación de multiplicar. Análisis cualitativo de los datos comparados en el pretest y el postest, enumeración de los progresos y/o estancamientos de los sujetos de la investigación. El método del algoritmo en red sí permite la capacitación de los individuos pues posibilita la construcción de estructuras multiplicativas. Desde el punto de vista empírico esto es válido, aunque, en los sujetos de esta investigación, debido a sus especiales características no ha podido ser discriminativo para la comprobación de la hipótesis. Aunque el algoritmo empleado ha favorecido la comprensión de la multiplicación, no ha motivado suficientemente a los sujetos por diversos motivos: A) No se ajusta a sus intereses que son el aprendizaje de las tablas de multiplicar. B) Confunden rapidez con efectividad. C) No tiene relación con las nociones anteriores sobre el tema. D) Siguen anclados en estructuras aditivas por lo que no encuentran significado a otra entidad matemática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Elaboración de un cuestionario que recoja la respuesta de los alumnos a los distintos aspectos de contenido de las matemáticas en el Primer Ciclo de Educación Primaria. El cuestionario está diseñado como un test de potencia basado en la práctica docente. Recoge las aportaciones de distintos profesionales y tendencias en el proceso didáctico. Pretende identificar carencias de los alumnos en cada uno de los bloques temáticos y tipos de contenido que componen el currículo de matemáticas para el Primer Ciclo de Educación Primaria. El cuestionario se administró a alumnos de la Región de Murcia según la distribución territorial de la Consejería de Educación y Cultura. Una vez en disposición de los datos procedentes de la muestra de 682 alumnos, se procede al análisis de los cuestionarios tomando como punto de partida los supuestos de la Teoría de la Respuesta al Ítem, que es un compendio de modelos matemáticos que tratan de establecer, a partir de una función estadística, la probabilidad de que un sujeto acierte o falle un ítem. No se vincula a teorías sobre la inteligencia sino a problemas técnicos derivados de la construcción de test y a la estadística matemática. Se realiza un análisis factorial exploratorio para comprobar la hipótesis de partida. Al confirmarse, se procede a la realización de los correspondientes estudios de validez y a la confección de la ficha técnica del cuestionario. La hipótesis formulada partía de que la competencia matemática se estructura de forma multifactorial con factores ligados a aspectos numéricos, componentes heurísticos y a aspectos reacionados con la organización espacio-temporal.. Se ha realizado un Análisis de Componentes Principales con la finalidad de determinar el número de componentes que pueden explicar mayoritariamente la covariación entre los items. Los tres componentes encontrados son: el componente operativo, que hace referencia a las competencias en el manejo de algoritmos y la aplicación de los mismos en la solución de problemas. El componente estimativo, que hace referencia a las competencias en estimación y medida, así como a la localización mediante posiciones relativas y reconocimiento de formas y figuras y el componente de dominio local que hace referencia a las competencias en el manejo del valor posicional de las cifras de un número en lo referente al dominio de la semirecta de los números naturales. A la vista de los resultados, la competencia matemática se expresa en función de las componentes señaladas. El autor presenta aportaciones psicopedagógicas para la didáctica de las matemáticas en el Primer Ciclo de Educación Primaria, que se derivan de los resultados de su investigación..

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Determinar el papel jugado por los tipos de conteo en el desarrollo de habilidades para la resolución de problemas y algoritmos de adición y sustracción. Analizar la importancia de la estructura semántica y sintáctica de estos problemas a la hora de elaborar estrategias de resolución de los mismos. Elaborar un modelo de sistematización de estos procesos. Muestreo aleatorio estratificado -los estratos fueron los cuatro primeros niveles de EGB- en los colegios públicos de Cartagena. Tomando como marco base el modelo de sistematización de adición sustracción de Heimer y Trueblood (1978), se elaboró un modelo alternativo que recogía, además, las investigaciones del Departamento de Psicología Evolutiva y de la Educación de la Universidad de Murcia sobre adquisiciones numéricas y procesos de cuantificación. Alternativamente se realizó un proceso de integración de los modelos de conteo planteados por la Psicología Cognitiva actual. Para determinar cómo estos modelos se integraban en la sistematización de los procesos de adición y sustracción elaborados por nosotros, se procedió a realizar un estudio correlacional que implicó el control de las siguientes variables: tipos de conteo y habilidades aritméticas. Prueba de aplicación colectiva, sobre conceptos implicados en adición y sustracción. Se completó esta prueba con otra de tipo individual, tomada de Secada y Fuson (en preparación) que a su vez fue adaptada de una tarea usada por Steffe, Spikes y Hirstein, (1976). Escalograma de Guttman para la jerarquización de los items de la prueba colectiva. Un análisis de regresión permitió la validación de esta prueba. Debido a la alta colinealidad encontrada en las variables implicadas en el análisis de regresión, se realizó una prueba no paramétrica (X de Pearson) para explicar las posibles interacciones y las habilidades aritméticas estudiadas. Un análisis de Cluster permitió agrupar los items de la prueba colectiva, y otro, los sujetos. Diferencias significativas en la resolución de las operaciones de adición y sustracción entre los sujetos que utilizaban el 'conteo parcial' y los que usaban una subrutina de 'conteo total'. Quedó reflejada una clara y progresiva evolución paralela en el desarrollo del conteo y las habilidades aritméticas de base. Los conceptos subyacentes a las operaciones de adición y sustracción no se comprendían , es decir, los niños habían aprendido a resolver estas operaciones (y sus algoritmos) de forma mecánica. La enseñanza de las operaciones aritméticas presta mayor atención a los productos que a los procesos, es decir, está más interesada por los resultados del aprendizaje que por el aprendizaje en sí mismo. La dificultad básica de la sustracción sobre la adición viene reflejada por la propia dificultad del pensamiento para hacerse reversible. El uso de estrategias adecuadas de conteo puede facilitar la comprensión de las operaciones y conseguir una mejor automatización de las mismas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los supuestos fundamentales de la Teoría de la Computabilidad se establecieron antes de la aparición de los primeros ordenadores (a finales de los años 40), supuestos que muchos años de vertiginoso cambio no han conseguido alterar. Alan Mathison Turing demostró ya entonces que ningún ordenador, por muy potente que lo imaginemos, podría resolver algunas cuestiones. Estos problemas para los que no existe ningún algoritmo posible, los incomputables, no son excepcionales y hay un gran número de ellos entre los problemas que se plantean en torno al comportamiento de los programas. El problema de parada, es sin duda el miembro más conocido de esta familia: no existe un algoritmo para decidir con carácter general si un programa ciclará o no al recibir unos datos de entrada concretos. Para demostrar la incomputabilidad de un problema necesitamos un argumento lógico que certifique la inexistencia de algoritmo, o lo que es lo mismo, que pruebe que ninguno de los algoritmos existentes es capaz de resolver dicho problema. Tal argumento de carácter universal no suele ser sencillo de establecer, y normalmente suele estar relacionado con una demostración por reducción al absurdo. Existen distintas técnicas para lograr este objetivo. La técnica de diagonalización es la más básica de ellas, y resulta bastante conocida al no tratarse de una herramienta específica de la Informática Teórica. En este documento no se trata de explicar la técnica en sí, que se supone conocida, sino de ilustrarla con una colección de ejemplos de diferente grado de dificultad.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta o desenvolvimento de um novo algoritmo de criptografia de chave pública. Este algoritmo apresenta duas características que o tornam único, e que foram tomadas como guia para a sua concepção. A primeira característica é que ele é semanticamente seguro. Isto significa que nenhum adversário limitado polinomialmente consegue obter qualquer informação parcial sobre o conteúdo que foi cifrado, nem mesmo decidir se duas cifrações distintas correspondem ou não a um mesmo conteúdo. A segunda característica é que ele depende, para qualquer tamanho de texto claro, de uma única premissa de segurança: que o logaritmo no grupo formado pelos pontos de uma curva elíptica de ordem prima seja computacionalmente intratável. Isto é obtido garantindo-se que todas as diferentes partes do algoritmo sejam redutíveis a este problema. É apresentada também uma forma simples de estendê-lo a fim de que ele apresente segurança contra atacantes ativos, em especial, contra ataques de texto cifrado adaptativos. Para tanto, e a fim de manter a premissa de que a segurança do algoritmo seja unicamente dependente do logaritmo elíptico, é apresentada uma nova função de resumo criptográfico (hash) cuja segurança é baseada no mesmo problema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é a proposta de uma arquitetura especial para simulação lógica (AESL). As técnicas e modelos utilizados no processo de simulação lógica são brevemente revistos. É definida uma taxonomia para AESL sob a qual são analisadas diversas propostas de AESL relatadas na literatura. Uma taxonomia já existente é comparada com a proposta. A AESL definida é programável para diferentes algoritmos de simulação lógica. O detalhamento da AESL é, então, incrementado pela implementação de um algoritmo particular. Uma linguagem de simulação discreta é utilizada na construção de um modelo da arquitetura. Os resultados da simulação deste modelo permitem avaliar o desempenho da AESL e otimizar sua estrutura. Uma comparação com outras arquiteturas conclui a análise.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é o dimensionamento de pilares esbeltos de concreto armado, sob cargas de curta e longa duração, baseado numa análise realística das deformações do mesmo. Apresenta-se três algoritmos numéricos para a obtencão das relações momento fletor-esforço normal-curvatura de uma seção arbitrária de concreto armado, sob flexo-compressão normal. Inclue-se as deformações específicas de fluência e retração do concreto na análise, através de uma alteração nas referidas relações. Apresenta-se alguns critérios de normas, relativos ao dimensionamento de pilares esbeltos de concreto armado e uma comparação dos mesmos, entre si e com o algoritmo numérico desenvolvido. Considerações da NB-1/78 relativas ao projeto de pilares são analisadas, verificando o nivel da precisão obtida. Um procedimento simplificado para a inclusão da fluência do concreto no dimensionamento, proposto pelo CEB, é testado e uma solução para pilares de concreto armado com engastamento elástico simétrico é apresentada, para verificar o nível: do erro cometido ao se estender o conceito de comprimento de flambagem a pilares de concreto armado. Uma série de exemplos experimentais são apresentados, onde a solução numérica para o dimensionamento tem sua precisão verificada. Diversas tabelas foram desenvolvidas para o dimensionamento de pilares esbeltos com secão transversal retangular e armadura simétrica. Todo o estudo é restrito ao caso de flexo-compressão normal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.