1000 resultados para Joomla! (Programas de ordenador)


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se eval??a el efecto del orden en el cual se aprenden dos lenguajes de programaci??n y se intenta desarrollar material did??ctico y dise??ar un Curr??culum de estas materias. Alumnos de un INB de Binefar (n=15) y otro INB de Calatayud (n=16). Cursos 83-84 y 84-85. Un n??mero no especificado de alumnos de control. Dise??o de dos grupos experimentales m??s uno de control. Variables independientes: orden de aplicaci??n de los programas de aprendizaje (Basic-Logo versus Logo-Basic). Variables dependientes: rendimiento y dificultades expresas en el aprendizaje (operativizadas seg??n las dudas y preguntas manifestadas). Los programas son dise??os curriculares para la asignatura de Inform??tica. Duraci??n experiencia dos cursos. Emplean pedagog??as activas. En el primer curso se eval??an las siguientes variables: inteligencia (general, razonamiento verbal y fluidez verbal), rendimiento (pruebas de conocimientos y de comprensi??n) y opiniones y espectativas. En el segundo curso se lleva a cabo una evaluaci??n cualitativa de los resultados. Pruebas psic??logicas, de rendimiento y comprensi??n ad hoc, cuestionario ad hoc de actitudes y opiniones, material curricular desarrollado y programas de ordenador y calificaciones acad??micas. Primer curso: frecuencias, histogramas. Segundo curso: an??lisis cualitativo. El lenguaje Logo favorece la estructuraci??n de los problemas y es m??s comprensible que el Basic, aunque tiene limitaciones. La secuencia de aprendizaje Logo-Basic parece la m??s adecuada. El lenguaje Logo facilita m??s la creatividad y la comunicaci??n, es m??s flexible y permite un uso m??s acorde con las capacidades individuales. La opci??n Basic-Logo no influye en el rendimiento acad??mico de los alumnos. El Logo-Basic favorece un conocimiento inform??tico m??s estructurado. El Logo parece un lenguaje m??s adecuado para EEMM. Si se consideran sus objetivos (introducir al alumno en el mundo de la inform??tica y potenciar el uso del ordenador como herramienta).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Comprobar la idoneidad de las técnicas CMI (Computer Managed Instruction) para la formación en Matemáticas del profesorado de EGB. Realizaron el curso por ordenador 12 profesores de EGB que iban a seguir un curso de actualización en Matemáticas por el método tradicional (de los 28 iniciales). Dividido en 2 fases. En la primera fase se diseñaron y pusieron en marcha los programas de ordenador necesarios para implementar el curso a seguir por el grupo experimental en el computador, y se prepararon los tests a que se sometieron los alumnos antes y después del curso. La segunda fase consiste en la experimentación del curso por computador con alumnos, análisis de los resultados y conclusiones de la investigación. Test previos de conocimientos, uno de respuesta libre y otro de elección de respuesta. Test de Inteligencia general (dominó D-48), batería DAT para medir la capacidad numérica (NA) y de razonamiento (AR). Cuestionarios de personalidad CEP de Pinillos. Conversaciones para detectar la actitud y el interés de los profesores por el curso. Cintas del curso, utilizando el miniordenador IBM 5100. Porcentajes de aciertos y errores por alumnos y por preguntas efectuadas. Se detectaron preguntas poco acertadas por el bajo porcentaje de éxitos. El 80 por ciento de los profesores mantuvo un interés notable a lo largo del curso. La mayoría opinó que el procedimiento era demasiado lento y echaron de menos que el sistema no presentase la respuesta correcta una vez contestada la pregunta por el alumno. Necesidad de reelaborar algunas partes del cuestionario. Un curso como el experimentado encuentra su principal aplicación como un medio adicional puesto a disposición del estudiante, con la finalidad de ayudarle a fijar y repasar los conceptos esenciales de la materia estudiada, sirviéndole, a la vez, de instrumento de diagnóstico de sus propias deficiencias.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Estudiar e investigar sobre el proceso de aprendizaje. Determinar el grado de entendimiento de los alumnos de ciertos conceptos matemáticos. A/ Prueba de lógica: pasada la prueba a 128 estudiantes de COU. B/ Prueba de enunciados: pasada a alumnos de Básica de quinto, sexto, séptimo y octavo, alumnos de BUP y de Formación Profesional. C/ Prueba de funciones: alumnos de séptimo y octavo de EGB, primero y segundo de BUP y primero y segundo de Formación Profesional. D/ Prueba de Geometría. E/ Prueba de probabilidad: alumnos de séptimo y octavo de EGB, y alumnos de primero, segundo y tercero de BUP y COU. En la primera parte se estudian e investigan los conocimientos necesarios para llevar a cabo la investigación y que son: teorías del aprendizaje, estadística y su aplicación a problemas de aprendizaje, y utilización del ordenador. En la segunda parte se confeccionan las siguientes pruebas: prueba de implicación lógica, prueba de enunciados, prueba de funciones, prueba de Geometría y prueba de probabilidad. Finalmente, en la tercera parte se analizan los resultados de dichas pruebas. A/ Estadística descriptiva univariante: media, desviación tipica, coeficiente de variación. B/ Covarianza y correlación. C/ Análisis de varianza de un factor. D/ Análisis multivariante: análisis de componentes principales, análisis factorial, problemas de clasificación y asignación, análisis discriminante. Programas de ordenador. Se han obtenido los items más discriminantes para confeccionar una nueva prueba sobre implicación lógica. Se ha comprobado que la variable sexo no incide significativamente en la prueba, aunque sí la variable centro. En la prueba de enunciado se ha evaluado como incide la edad. Para resultados pormenorizados consultar el capítulo V.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Monográfico con el título: 'Aportaciones de las nuevas tecnologías a la investigación educativa'. Resumen basado en el de la publicación

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Monográfico con el título: 'La Docencia en Ciencias de la Salud'. Resumen basado en el de la publicación

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Resumen basado en el de la publicaci??n

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Con el propósito de que los tres capítulos de esta investigación mantengan una secuencia coherente, el primero de ellos empieza señalando ciertos antecedentes históricos relativos a los derechos de autor que finalmente desembocaron en el Convenio de Berna de 1886. Posteriormente, procura establecer líneas de enlace entre el Convenio de Berna y la Convención Universal de 1952 y las actuales normas interna y comunitaria sobre derechos de autor, así como con la ley interna de 1976, sin dejar de lado algunas consideraciones teóricas acerca de la propiedad intelectual y de los derechos de autor. En el segundo capítulo, la presente tesis se aproxima a las principales disposiciones internacionales sobre derechos de autor como las siguientes: la Convención de Washington de 1946, la Convención de Roma de 1961, el Tratado de la OMPI sobre Derechos de Autor de 1996 y el ADPIC, en lo relativo a derechos de autor. El tercer y último capítulo se adentra en el objetivo primordial de este trabajo investigativo que es el análisis comparativo entre la Ley de Derechos de Autor de 1976 y las normas interna y comunitaria sobre esta misma materia actualmente en vigencia. Para este cometido se formularán precisiones de los posibles cambios, en unos casos, y la incorporación, en otros, que se han sucedido en temas tales como el ámbito de protección, la ausencia de formalidades, el objeto y los titulares de los derechos de autor, los derechos morales y patrimoniales, los programas de ordenador, las sociedades de gestión colectiva y las acciones y procedimientos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Con el propósito de que los tres capítulos de esta investigación mantengan una secuencia coherente, el primero de ellos empieza señalando ciertos antecedentes históricos relativos a los derechos de autor que finalmente desembocaron en el Convenio de Berna de 1886. Posteriormente, procura establecer líneas de enlace entre el Convenio de Berna y la Convención Universal de 1952 y las actuales normas interna y comunitaria sobre derechos de autor, así como con la ley interna de 1976, sin dejar de lado algunas consideraciones teóricas acerca de la propiedad intelectual y de los derechos de autor. En el segundo capítulo, la presente tesis se aproxima a las principales disposiciones internacionales sobre derechos de autor como las siguientes: la Convención de Washington de 1946, la Convención de Roma de 1961, el Tratado de la OMPI sobre Derechos de Autor de 1996 y el ADPIC, en lo relativo a derechos de autor. El tercer y último capítulo se adentra en el objetivo primordial de este trabajo investigativo que es el análisis comparativo entre la Ley de Derechos de Autor de 1976 y las normas interna y comunitaria sobre esta misma materia actualmente en vigencia. Para este cometido se formularán precisiones de los posibles cambios, en unos casos, y la incorporación, en otros, que se han sucedido en temas tales como el ámbito de protección, la ausencia de formalidades, el objeto y los titulares de los derechos de autor, los derechos morales y patrimoniales, los programas de ordenador, las sociedades de gestión colectiva y las acciones y procedimientos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El Capítulo 1 referente a Nociones Generales de Propiedad Intelectual y de Empresa, es un extracto de las formas de protección de los programas de ordenador, en especial de los derechos de autor. Se pone real énfasis al desarrollo de la ciencia y la tecnología en este capítulo ya que constituye un pilar fundamental para que el desarrollo de la protección legal de software se dé. El Capítulo II recoge información sobre legislación tanto en el ámbito nacional como internacional. En el presente capítulo se hace un análisis general de la legislación, de los procedimientos legales utilizados en el Ecuador, englobando, además, nuevas formas internacionales de aplicación para la protección de software que no consta en la Ley ecuatoriana y que representan una novedad para el contexto nacional. Siguiendo el orden, el Capítulo III, con título Programas de Ordenador en el Ecuador, hace referencia a la creación del software en pasos sistemáticos a seguir. El procedimiento para crear un programa de ordenador, debe realizárselo según ciertos parámetros que serán la guía para obtener un resultado. Los Mecanismos alternativos de Protección de los Programas de Ordenador en el Ecuador, contenidos en el Capítulo IV, son fundamentales en este mundo de constante cambio ya que a falta de una protección completa por el efecto legal, los empresarios y creadores de software han intentado por cuenta propia dotarse de mecanismos que les permitan tener un control más cerrado y efectivo del software que ellos producen, con el objeto de impedir la piratería y pérdidas por efecto de ella. En función de determinar los costos para la creación de software se ha analizado de manera general, en el Capítulo V, lo que puede costar realizar un determinado programa (aplicación) y del efecto que este produce en el contexto global (PNB). Por último, el Capítulo VI, constituye un estudio de los efectos de la globalización en el campo del software. Es inquietante conocer los efectos que ella, la globalización, puede conllevar en una economía pequeña como la nuestra, la influencia de organismos poderosos y de los posibles cambios en el ámbito legal y tecnológico que pueden darse, tanto nacional como internacionalmente. Puede que esta situación sea preocupante en un futuro, dependiendo del ambiente y su desarrollo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los estudios de asociación genómica (GWAS) llevan consigo un algo costo monetario, y a su vez requieren algoritmos complejos de análisis de información que consumen tiempo y memoria computacional. En este sentido, el objetivo principal de esta tesis es presentar un esquema de genotipado apropiado para poblaciones cruza, junto con un algoritmo eficiente para GWAS de caracteres complejos productivos. Inicialmente, se presenta un esquema de genotipado que maximiza la exactitud de imputación de genotipos en alta densidad (HD) a partir de paneles de baja densidad (LowD), reduciendo el costo de genotipificación. Posteriormete, se propone un algoritmo que facilita identificar regiones genómicas que explican parte de la variabilidad de un carácter, reduciendo la tasa de falsos positivos, el tiempo de cálculo y el requerimiento de memoria RAM. De igual manera, el algoritmo evalúa segmentos candidatos a partir de las posiciones detectadas significativas y calcula la fracción de la varianza aditiva total explicada por cada segmento. Finalmete se presentan estudios de asociación para características de crecimiento y deposición de grasa, empleando el algoritmo propuesto junto con genotipos imputados en HD. La implementación de dicho algoritmo permite identificar regiones significativas relevantes y genes candidatos que explican parte de la variación de los caracteres evaluados. En conclusión, la tesis propone un enfoque estructurado, práctico y eficiente para la realización de GWAS de caracteres complejos aplicado en poblaciones experimentales con fines productivos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se aborda la construcción de repositorios institucionales open source con Software Greenstone. Se realiza un recorrido teórico y otro modélico desarrollando en él una aplicación práctica. El primer recorrido, que constituye el marco teórico, comprende una descripción, de: la filosofía open access (acceso abierto) y open source (código abierto) para la creación de repositorios institucionales. También abarca en líneas generales las temáticas relacionadas al protocolo OAI, el marco legal en lo que hace a la propiedad intelectual, las licencias y una aproximación a los metadatos. En el mismo recorrido se abordan aspectos teóricos de los repositorios institucionales: acepciones, beneficios, tipos, componentes intervinientes, herramientas open source para la creación de repositorios, descripción de las herramientas y finalmente, la descripción ampliada del Software Greenstone; elegido para el desarrollo modélico del repositorio institucional colocado en un demostrativo digital. El segundo recorrido, correspondiente al desarrollo modélico, incluye por un lado el modelo en sí del repositorio con el Software Greenstone; detallándose aquí uno a uno los componentes que lo conforman. Es el insumo teórico-práctico para el diseño -paso a paso- del repositorio institucional. Por otro lado, se incluye el resultado de la modelización, es decir el repositorio creado, el cual es exportado en entorno web a un soporte digital para su visibilización. El diseño del repositorio, paso a paso, constituye el núcleo sustantivo de aportes de este trabajo de tesina

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se aborda la construcción de repositorios institucionales open source con Software Greenstone. Se realiza un recorrido teórico y otro modélico desarrollando en él una aplicación práctica. El primer recorrido, que constituye el marco teórico, comprende una descripción, de: la filosofía open access (acceso abierto) y open source (código abierto) para la creación de repositorios institucionales. También abarca en líneas generales las temáticas relacionadas al protocolo OAI, el marco legal en lo que hace a la propiedad intelectual, las licencias y una aproximación a los metadatos. En el mismo recorrido se abordan aspectos teóricos de los repositorios institucionales: acepciones, beneficios, tipos, componentes intervinientes, herramientas open source para la creación de repositorios, descripción de las herramientas y finalmente, la descripción ampliada del Software Greenstone; elegido para el desarrollo modélico del repositorio institucional colocado en un demostrativo digital. El segundo recorrido, correspondiente al desarrollo modélico, incluye por un lado el modelo en sí del repositorio con el Software Greenstone; detallándose aquí uno a uno los componentes que lo conforman. Es el insumo teórico-práctico para el diseño -paso a paso- del repositorio institucional. Por otro lado, se incluye el resultado de la modelización, es decir el repositorio creado, el cual es exportado en entorno web a un soporte digital para su visibilización. El diseño del repositorio, paso a paso, constituye el núcleo sustantivo de aportes de este trabajo de tesina

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ideas básicas: reducción del medio contínuo a discreto (elementos, nodos y funciones de forma); definición de un estado "elemental" relacionado con otro "general", mediante el formalismo "matriz de rigidez" y vectores consistentes; método de síntesis de propiedades generales: método directo de la rigidez. Posibilidades de estudio: derivación de la teoría, modelización de problemas reales con F.E.M., desarrollo de programas de ordenador, estudio de métodos numéricos (sistemas ecuacionales, autovalores, convergencia, integración etc.). Contrariamente a lo que se diga el F.E.M. no elimina la necesidad de profundizar en el estudio de la elasticidad, matemáticas, etc. Se trata tan sólo de un instrumento potentísimo que, en principio, permite abordar cualquier problema.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dentro de los estudios de Ingeniería, las asignaturas que se ocupan de la capacidad de desarrollar programas de ordenador presentan algunas particularidades que las hacen especialmente interesantes a la hora de aplicar instrumentos de evaluación no tradicionales. Estas características son: (a) el resultado del aprendizaje es estrictamente una competencia, (b) el ejercicio profesional de esta competencia se realiza usualmente en equipo y (c) el proceso de evaluación puede ser más objetivo que en otras materias. Como consecuencia de la aplicación del EEES se están aplicando nuevas metodologías docentes y de estrategias de evaluación a estas asignaturas y resulta relevante conocer qué diferencias, si existen, introducen en el proceso de aprendizaje de este tipo de materias. El presente trabajo contrasta la aplicación de dos metodologías docentes y dos instrumentos de evaluación en dos grupos de la misma asignatura. Uno de los grupos ha seguido una metodología docente a distancia apoyada en una plataforma de e-learning, con contenidos docentes en formato electrónico, tutorías virtuales, un foro de comunicaciones, ejercicios de autoevaluación,trabajos individuales y trabajos en grupo. El otro grupo comparte los mismos contenidos docentes pero sigue una metodología que se basa en la impartición de clases presenciales de tipo magistral y clases prácticas de resolución de problemas y en la que se realiza un proyecto en equipo que se entrega en tres hitos. En ambos casos se ha utilizado una rúbrica por parte del profesor para evaluar los trabajos y otra por parte del alumno para valorar la actividad y competencia trabajo en equipo. Además se ha realizado un examen tradicional aunque sin efecto en la calificación final del alumno como referencia de comparación. En este sentido se muestra la experiencia en el empleo de la rúbrica en el contexto de la docencia en Ingeniería, y, en este caso, respecto de un instrumento tradicional como es una prueba de evaluación escrita.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A medida que se incrementa el nímero de dispositivos inteligentes, el esfuerzo requerido para adaptarlos a las necesidades de cada usuario también crece. Asimismo, el proceso de adaptación de un dispositivo al contexto de un usuario es todavía un proceso muy manual. A pesar de que en los últimos años han surgido algunas propuestas centradas en obtener la información contextual de los usuarios para crear sus perfiles virtuales, se necesitan soluciones novedosas que permitan crear perfiles más completos, que sean utilizados por los dispositivos inteligentes para adaptarse automáticamente a las necesidades de sus usuarios, redundando en una mayor exactitud de la adaptación. En este artículo se propone la integración del modelo computacional People as a Service (PeaaS) con el procesamiento de eventos complejos (CEP) para la creación en tiempo real de perfiles virtuales complejos desde el propio dispositivo móvil y la compartición de estos como servicios para el resto de sistemas y dispositivos. Además, se evalúa esta integración en un caso de estudio sobre Alzheimer. Los resultados confirman que el uso de la tecnología CEP para la identificación de información contextual compleja es posible.