240 resultados para Quantificadores lógicos
Resumo:
Se intenta elaborar una tarea alternativa a las pruebas de Piaget para el análisis de la clase nula en los niños. La hipótesis planteada fue: si la clase nula da paso a las operaciones formales y la clase única es propia de las operaciones concretas, entonces una tarea que pretende medir la clase nula sólo puede ser resuelta por sujetos que hayan adquirido la clase única. Compuesta por 77 niños de tercero de EGB, de tres centros de Molina de Segura. Administración de cuatro pruebas para saber en que etapa del desarrollo de la clasificación se sitúan: - prueba de cuantificación de la inclusión, modificación de la prueba de la clase única, - prueba de la clase nula utilizada por Piaget, - prueba de clasificación (ideada por la autora de la tesis), para evaluar el pensamiento de los niños acerca de la clase vacía o nula. Prueba de cuantificación de la inclusión. Prueba de la clase única. Prueba de clase nula de Piaget. Escalograma de Guttman que nos indica el índice de reproductibilidad. Se utilizó para analizar la fiabilidad de la prueba de Piaget y la prueba alternativa propuesta por la autora. El índice de reproductibilidad para la prueba de clase nula de Piaget no alcanza el mínimo determinado por Guttman. El índice de reproductibilidad de la prueba elaborada por la autora de esta tesis sí lo alcanza, por tanto la escala de dicha prueba es consistente. La hipótesis planteada concuerda con la de Piaget (aunque su prueba para medir la clase nula no sea consistente). El análisis de la categoría estática de la función implicativa de la inteligencia que permite organizar el mundo clasificándolo, puede ser medida o analizada mediante pruebas y tareas muy simples, cuyo material se basa en los bloques lógicos de Z.P. Dienes.
Resumo:
La presente investigación trata de responder a varias cuestiones: ¿organiza el niño mejor su entorno si lo hace bajo un nombre genérico, que define a un todo y en el que se integran como elementos constitutivos del mismo los elementos particulares de lo real?; ¿el niño maneja mejor la realidad si la organiza en clases colectivas o lógicas?; en la cuantificación, ¿existirán diferencias si el pensamiento tiene que empezar a razonar a partir de todo o de las partes?. 60 niños de Preescolar, primero y segundo; primero, segundo y tercero de EGB de un colegio público, que se encuentra ubicado en una barriada de la ciudad de Murcia. Todos los escolares que alberga el centro podrían ser encuadrados en un nivel económico y sociocultural de tipo medio. A todos los sujetos se les aplicó un pretest. Los resultados obtenidos se clasificaron en tres grupos (alto, medio y bajo) de los cuales se seleccionaron 20 sujetos al azar entre los tres grupos. Estos fueron subdivididos en dos grupos; al primero se le aplicaron pruebas de cuantificación sobre clases colectivas y al segundo sobre clases lógicas. Se aplico un diseño factorial 3x2x2 con cinco sujetos por casilla. Los factores implicados son: sujetos con puntuaciones altas, medias y bajas en el pretest. Preguntas de cuantificación sobre clases colectivas y lógicas. Inicio de cuantificación a partir de la clase supraordenada y subordinada. Se ha aplicado un diseño factorial intersujetos. Prueba individual de clasificación y cuantificación (bloques lógicos de dienes) descrita por Piaget e Inhelder, pero variando el número de elementos. Pruebas de cuantificación con material sobre clases colectivas y clases lógicas. Análisis de varianza 3x2x2; 2x2x2, donde se eliminan los sujetos de puntuación más alta; 2x2 para el pretest. Se encuentran diferencias en las conductas clasificatorias, tanto en las pruebas utilizadas por Piaget, como al utilizar pruebas y consignas distintas pero relacionadas con aquél. No se encuentran mejoras al utilizar pruebas de inclusión de clases utilizando un material categorizado bajo nombre de 'colectivos' o utilizando un material caraterizado bajo forma de clase lógica. No se obtienen mejores resultados en las pruebas de inclusión comenzando por las clases subordinadas que comenzando por la clase supraordenada. Se ha encontrado suficiente evidencia empírica para poder afirmar que en nuestros sujetos, contrariamente a la opinión expresada por algunos autores no se produce ninguna mejora en el proceso de cuantificación de lo real, cuando este proceso de cuantificación se aplica a clases colectivas o a lógicas.
Resumo:
Recopilar los puntos principales de la actividad globalizadora en relación a la importancia que esta tiene para la enseñanza en general. La actividad globalizadora forma un puente entre la actividad instintiva y la actividad inteligente superior. Funciona espontáneamente en el niño y en el adulto y ayuda a adquisiciones importantes como: el lenguaje, los conocimientos sobre el medio material, vivo, social y otras formas varias de actividad. Está indicado recurrir a ello, sobre todo, en el periodo de transición que va de la educación maternal, a la educación por procedimientos lógicos y abstractos. El Concepto Globalizador sigue evolucionando. Actualmente se concibe como una forma de hacernos al conocimiento de la realidad integral, en su totalidad, frente a la fragmentación que supone abordarlo desde las diferentes disciplinas. El todo (la realidad) es más que la suma de las partes (o perspectivas desde las que se puede estudiar esa realidad). Desde la reforma educativa, el curriculum tiende a ser concebido de forma global, totalizadora. Los contenidos de la enseñanza pretenden abarcar todas las parcelas de la formación del alumno, ofreciéndose así una educación integral. Por otro lado la perspectiva globalizadora favorece y facilita el aprendizaje significativo al presentar la realidad de manera integral, comprensiva y relacional a los alumnos. La clave globalizadora reside en el modo de organizar y presentar la actividad a los alumnos. Su principal peligro de la organización globalizadora de la actividad, reside en la oferta de multitud de actividades sin objeto claro a conseguir con ellas. Es decir, la actividad por la actividad. En Educación Infantil es obligado este enfoque pues la estructura psicológica del niño, eminentemente sincrética, es la que fundamenta, junto a otros aspectos, la organización globalizadora de la actividad.
Resumo:
Estudiar el desarrollo entre la matemática tradicional y la matemática moderna, y la opinión de Piaget sobre esta cuestión. 9 niños de edades entre 6 y 7 años. pruebas elementales de seriación, correspondencia y conservación de la cantidad. Transcripción del comportamiento. Las matemáticas modernas están más acordes con la psicología infantil. Los métodos de enseñanza no han cambiado a pesar de que lo han hecho los contenidos. La reforma se ha hecho por adecuar las asignaturas de la ciencia actual, no como mejoramiento de la forma de enseñar las matemáticas. En la escuela se han limitado a cambiar los aspectos externos: libros y programas, pero no se ha preparado a los profesores, ni en el sentido de la reforma, ni en aspectos pedagógicos, ni de psicología infantil. Desde el punto de vista de la psicología infantil, genética y de la inteligencia sería deseable una enseñanza, más activa, más relacionada con la vida y que tenga en cuenta los pasos lógicos que llevan a cada adquisición.
Resumo:
Resumen basado en el de la publicación
Resumo:
Resumen basado en el de la publicación
Resumo:
Monogr??fico con el t??tulo: "Interculturalidad y atenci??n educativa a la poblaci??n inmigrada. Tendencias, modelos y experiencias"
Resumo:
La Teoría de la Computabilidad es una disciplina encuadrada en la Informática Teórica que tiene como objetivo establecer los límites lógicos que presentan los sistemas informáticos a la hora de resolver problemas mediante el diseño de algoritmos. Frente a las disciplinas y técnicas que día a día amplían el campo de aplicabilidad práctica de los computadores, esta teoría establece una serie de barreras insalvables por ninguna tecnología digital de procesamiento de la información. Los métodos propios de la Teoría de la Computabilidad pueden ser extraordinariamente complejos, sin embargo, existe un núcleo de resultados fundamentales que son abordables mediante técnicas más asequibles, y que tienen la virtud de reflejar razonablemente el concepto central de indecidibilidad computacional. Este informe incluye una descripción de los conceptos y técnicas que configuran ese núcleo básico de la Teoría. Su propósito es dar cuenta de la primera batería de resultados relacionados con la incomputabilidad de algunos problemas conocidos y relevantes en Informática. Los resultados se presentan utilizando como estándar de programación los programas-while, incluyéndose una explicación detallada y sistemática de la técnica de Diagonalización, además de resultados tan importantes como la tesis de Church-Turing, la función universal o el problema de parada.
Resumo:
La Teoría de la Computabilidad es una disciplina encuadrada en la Informática Teórica que tiene como objetivo establecer los límites lógicos que presentan los sistemas informáticos a la hora de resolver problemas mediante el diseño de algoritmos. Estos resultados proporcionan importantes herramientas que se utilizan para demostrar tanto la computabilidad como la incomputabilidad de muchas funciones relevantes. Los primeros problemas incomputables que se encontraron lo fueron allá por la década de los años 30. El problema de parada es el primer y más conocido ejemplo de problema no resoluble mediante técnicas algorítmicas: ningún ordenador, por muy potente que sea, puede anticipar el comportamiento de los programas en ejecución, y decidir de antemano si terminarán o no. Este problema nos proporciona un soporte intuitivo para anticipar la incomputabilidad de otros problemas relacionados y un procedimiento para resolverlos: el método de diagonalización. Sin embargo para determinados problemas también incomputables hay que recurrir a otros métodos. Este texto incluye una descripción de otra técnica básica de Teoría de la Computabilidad: la Reducción. La base del método estriba en demostrar que ciertos pares de problemas están fuertemente relacionados de modo que si el segundo tiene solución algorítmica entonces el primero debe tenerla necesariamente también. Esta relación se establece por medio de funciones transformadoras computables, que permiten convertir de manera automática las instancias positivas del primer problema en instancias positivas del segundo. Esta técnica se utiliza muy a menudo porque resulta comparativamente más sencilla que la diagonalización, ya que en general requiere menos esfuerzo para demostrar la incomputabilidad de un mismo problema.
Resumo:
Una de las mayores deficiencias que se puede encontrar en muchas de las sentencias dictadas por los administradores de justicia, es su falta de fundamentación que, en la práctica, puede ocasionar serios inconvenientes, ya que se estaría vulnerando varios principios constitucionales. Por ello, con este trabajo se aspira abordar a la motivación de las decisiones judiciales, como un tema de actualidad jurídica, determinando los parámetros, contenidos, características, una comparación con otros sistemas procesales, así como, la forma mediante la cual los órganos de la Función Judicial, especialmente, las Salas de lo Civil y de lo Laboral y Social de la Corte Suprema de Justicia (hoy Corte Nacional), deberían fundamentar sus resoluciones. Para el efecto, se han desarrollado tres capítulos. El primero, relativo a nociones previas sobre las providencias judiciales y la obligatoriedad o no de ser motivadas. El segundo capítulo analiza los elementos claves de la motivación, desde su concepto y fin, su alcance constitucional, las distintas formas de motivar, las venjajas y desventajas, y sus requisitos. Se explica, además, lo que hemos denominado criterios de verdad y validez como fundamentos de la motivación, en el que resaltan los principios lógicos de la sentencia, y la relación entre la verdad material y la validez formal (razonamiento sólido) que en un ejercicio práctico de lógica jurídica, intenta aportar con elementos para una motivación debida. El tercer capítulo contiene un análisis de derecho comparado de la motivación judicial en los sistemas de los países de la familia romano germánica, con los del common law. Finalmente, se presentan las conclusiones y recomendaciones sostenidas a lo largo de la investigación.
Resumo:
Esta tesis busca definir una alternativa para administrar los proyectos de desarrollo de software basándose en la Teoría de Restricciones del Dr. Eliyahu M. Goldratt y siguiendo los principios de la metodología Ágil Scrum, con el fin de lograr proyectos exitosos que satisfagan a los clientes y sean rentables para la compañía ejecutora. En el capítulo 1 se presenta el marco lógico de la Teoría de Restricciones y los 5 pasos propuestos para implementar un proceso de mejora continua identificado el elemento que limita al sistema y le impide generar los resultados financieros deseados. Se continúa con el análisis de las particularidades de los proyectos de desarrollo de software, las bases que sustentan a las metodologías de Desarrollo Ágil y se estudia en detalle a Scrum. En el capítulo 3 se conjugan las reglas del marco de trabajo Scrum con los lineamientos de la TOC para obtener una guía práctica para administrar los proyectos de desarrollo de software. Se evidencia que el proceso de desarrollo es un sistema con una restricción que lo limita y que se pueden aplicar los 5 pasos propuestos por la TOC para optimizarlo. Además, los argumentos lógicos de la Cadena Crítica, aplicación de la TOC para administrar proyectos, permite asignar amortiguadores en los lugares adecuados de la ruta del proyecto haciendo que el Scrum Master se enfoque en los desfases causados por los inevitables imprevistos. En el capítulo 4 se analizan las convenciones de la contabilidad de Throughput para definir indicadores de operación y de resultados que nos permitan monitorear y controlar los avances de los proyectos, determinar su éxito y poder comparar las continuas mejoras conseguidas con la aplicación de la TOC y Scrum. En el último capítulo el lector podrá encontrar la aplicación de la teoría analizada en un proyecto real que ha sido seleccionado para ilustrar de mejor manera el marco de trabajo propuesto.
Resumo:
La vigente Ley de Comercio Electrónico, Firmas Electrónicas y Mensajes de Datos del Ecuador (Ley de Comercio Electrónico), publicada en el Registro Oficial número 557 (17 de abril de 2002), define la factura electrónica como el "conjunto de registros lógicos archivados en soportes susceptibles de ser leídos por equipos electrónicos de procesamiento de datos que documentan la transferencia de bienes y servicios, cumpliendo con los requisitos exigidos por las Leyes Tributarias, Mercantiles y más normas y reglamentos vigentes". Se desprende de esta definición, en primer lugar, que la factura electrónica documenta la transferencia de bienes y servicios, así como también, que los mensajes de datos y los documentos escritos tienen el mismo valor jurídico, siempre y cuando, los primeros cumplan los requisitos establecidos en este cuerpo legal. La emisión de documentos electrónicos se traduce como una solución innovadora que permite integrar los procesos internos de un negocio o empresa, con la generación, firma y envío de comprobantes de venta, retención o documentos complementarios tributarios electrónicos, logrando reducir los costos operativos e incrementando la productividad de una compañía, así como el fortalecimiento de los procesos de control tributario para reducir las brechas de evasión fiscal. En este sentido, este trabajo recoge en primer lugar la fundamentación teórica sobre la facturación electrónica y el marco normativo que ha implementado el SRI para su uso obligatorio; posteriormente analiza las ventajas y desventajas que trae consigo este nuevo esquema de emisión electrónica frente a la facturación física y los desafíos que representa tanto para la Administración Tributaria como para los contribuyentes; y por último, exhibe el proceso que se ha seguido para establecer el sistema, así como los resultados que se han obtenido después de algún tiempo de experiencia en los países más avanzados en el proceso de implementación de facturación electrónica en América Latina, tales como: Chile, Brasil, México, Argentina y Colombia.
Resumo:
Esta tesina tiene el propósito de analizar las características de algunos de lospersonajes principales de La Sombra del Viento de Carlos Ruiz Zafón desde un punto de vistade género. El estudio se basa en diferentes teorías de género que pretenden funcionar comoherramientas para poder destacar las diferencias entre las descripciones femeninas y lasmasculinas que aparecen en la obra. Primero, definimos y concretamos el término género conla ayuda de las teorías de Yvonne Hirdman. En segundo lugar, presentamos la teoría deldualismo, de acuerdo con la cual Lena Gemzöe hace una división entre las cualidadesmasculinas y femeninas. El objetivo de nuestro estudio ha sido hacer un análisis de lascaracterísticas de algunos de los personajes principales de para demostrar si existenconstrucciones de identidad de género desde una perspectiva dualista. Como resultado denuestro estudio podemos afirmar que Zafón refuerza la división entre las cualidadesmasculinas y femeninas. Los personajes masculinos son descritos como fuertes, valientes,lógicos, intelectuales e independientes. Paralelamente, las mujeres son descritas como débiles,cobardes, intuitivas y dependientes. Además, consideramos que Zafón da a todos lospersonajes masculinos mayor espacio, estatus y protagonismo en el desarrollo de la historia.En todo momento, queda claro que Zafón crea de forma inconsciente el orden de género yrefuerza así las diferencias sexuales.
Resumo:
Este trabalho apresenta a proposta de um editor de diagramas hierárquico e colaborativo. Este editor tem por objetivo permitir a especificação colaborativa de circuitos através de representações gráficas. O Blade (Block And Diagram Editor), como foi chamado, permite especificações em nível lógico, usando esquemas lógicos simples, bem como esquemas hierárquicos. Ao final da montagem do circuito, a ferramenta gera uma descrição textual do sistema num formato netlist padrão. A fim de permitir especificações em diferentes níveis de abstração, o editor deve ser estendido a outras formas de diagramas, portanto seu modelo de dados deve ter flexibilidade a fim de facilitar futuras extensões. O Blade foi implementado em Java para ser inserido no Cave, um ambiente distribuído de apoio ao projeto de circuitos integrados, através do qual a ferramenta pode ser invocada e acessada remotamente. O Cave disponibiliza um serviço de colaboração que foi incorporado na ferramenta e através do qual o editor suporta o trabalho cooperativo, permitindo que os projetistas compartilhem dados de projeto, troquem mensagens de texto e, de forma colaborativa, construam uma representação gráfica do sistema. Objetivando fundamentar a proposta da nova ferramenta, é apresentado um estudo sobre ferramentas gráficas para especificação de sistemas, mais especificamente sobre editores de esquemáticos. A partir dessa revisão, do estudo do ambiente Cave e da metodologia de colaboração a ser suportada, fez-se a especificação do editor, a partir da qual implementou-se o protótipo do Blade. Além do editor, este trabalho contribuiu para a construção de uma API, um conjunto de classes Java que será disponibilizado no Cave e poderá ser utilizado no desenvolvimento de novas ferramentas. Foram realizados estudos sobre técnicas de projeto orientado a objeto, incluindo arquiteturas de software reutilizáveis e padrões de projeto de software, que foram utilizados na modelagem e na implementação da ferramenta, a fim de garantir a flexibilidade do editor e a reusabilidade de suas classes. Este trabalho também contribui com um estudo de modelagem de primitivas de projeto de sistemas. No modelo orientado a objetos utilizado no editor, podem ser encontradas construções muito utilizadas em diferentes ferramentas de projeto de sistemas, tais como hierarquia de projeto e instanciação de componentes e que, portanto, podem ser reutilizadas para a modelagem de novas ferramentas.
Resumo:
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.