27 resultados para microordenador
Resumo:
http://ong.teleline.es/ong/español/home.htm, web site del congreso Europeo de Voluntariado. Quedan al alcance las ponencias y documentos sobre los que versarán los temas a debatir en las reuniones y mesas de trabajo de las diferentes comisiones.
Resumo:
http://pangea.org/educsf, site de Educación Sin Fronteras.
Resumo:
http://www.clown.org, a través de esta web se pueden conocer las actividades de la ONG de las artes Payasos Sin Fronteras y encontrar informaciones de interés. Incluye un reportaje nuevo cada mes y aportaciones de los visitantes en forma de correo electrónico.
Resumo:
Se analiza la relación entre los ordenadores y la educación. Para comenzar se traza un panorama histórico, partiendo del hecho de que la informática es una ciencia joven. Se presta especial atención a la aparición de las calculadoras y de los microordenadores, que fue posible gracias a la miniaturización de los circuitos integrados, hacia 1972. Por otro lado se realiza una clasificación de los ordenadores en: ordenadores de gran tamaño, miniordenadores, y microordenadores. A continuación se reflexiona sobre la influencia del microordenador en la sociedad. Se evalúan apriorísticamente las ventajas y los inconvenientes que un avance tecnológico concreto aporta a la sociedad. Por último se relaciona la informática con la educación, en concreto se analiza el papel de la informática en la administración de centros escolares y en la enseñanza propiamente dicha. También se hace referencia a la enseñanza de la informática y como elemento final se estudia los microordenadores y la enseñanza de las matemáticas.
Resumo:
Se presenta un informe sobre la enseñanza asistida de lenguas por ordenador (ELAO) centrada en la interactividad entre el alumno y el microordenador dentro del proceso de autoaprendizaje y se detallan las tres fases de la historia de ELAO. A modo de ejemplo se presenta el papel de los hipermedia en el autoaprendizaje del alemán junto a los multimedia en el aprendizaje de la fonética alemana de acuerdo con las experiencias obtenidas en la Universidad de Educación a Distancia (UNED).
Resumo:
Estudiar y evaluar la eficacia didáctica de la simulación de procesos físicos en ordenadores. Diseñar un conjunto de prácticas de laboratorio junto a un proceso de contrastación que signifique la diferencia con los métodos tradicionales. 2 grupos de tercero de BUP y 4 de segundo de BUP, aproximadamente 20 alumnos por grupo. Diseño experimental intrasujeto de 5 grupos. Variable independiente: Método didáctico, con 2 niveles: método tradicional y método experimental con ordenador. Variable dependiente: Rendimiento, operativizado mediante una prueba de evaluación, y las opiniones y actitudes suscitadas por el método empleado, operativizado por medio de un cuestionario. El procedimiento consiste en diseñar 7 unidades didácticas. Todos los grupos pasan por todas las unidades y en cada una dos de ellas actúan como control y tres como experimental. Se controló la variable inteligencia. Raven. Test de Secuencias Dominó. Encuesta de actitud hacia la Informática. Microordenador Commodore 64. Pruebas de rendimiento. Comentarios subjetivos. Prueba de significación estadística. Índice de correlación. 1. Aunque la inversión inicial que requiere la adquisición de un ordenador sea tres veces la de un equipo standard de los usados en los Institutos de Bachillerato para las prácticas de laboratorio, el ordenador permite realizar prácticas a las que dicho equipo no puede acceder por falta de medios materiales (equipos de mecánica, calor, óptica y electricidad). 2. El ordenador no puede suplir totalmente las prácticas de laboratorio con los fenómenos reales, tiene una función complementaria y sustitutiva para ciertas prácticas en las que la adecuación de la vinculación a fenómenos reales se considera satisfactoria. 3. Sería conveniente centralizar por distritos el material didáctico disponible (software), con el fin de que se pudiera acceder a él con facilidad, así como unificar y compatibilizar el material informático (Hardware) entre los distintos centros para facilitar el intercambio de información. 4. El ordenador motiva al alumno en su aprendizaje. A pesar de ser demasiado pronto para sacar conclusiones del papel del ordenador en la enseñanza, se le puede considerar como un instrumento valioso que aporta un enriquecimiento a la tecnología didáctica.
Resumo:
Elaborar 19 programas de ordenador para el entrenamiento en habilidades y destrezas musicales, rítmicas y melódicas, con elección de niveles de dificultad y generación de secuencias aleatorias. Aplicar experimentalmente en las aulas los programas y evaluar su efectividad y su adecuación a alumnos de segundo de BUP. Interesar a grupos de profesores en la utilización de la Informática para la enseñanza musical y dotarles de la preparación adecuada para su implantación en el aula. Se han planteado diversas hipótesis. 40 alumnos de segundo de BUP, procedentes de 5 institutos de Valladolid. El objeto del trabajo es desarrollar un programa de iniciación a la lectura musical asistido por microordenador, fundándose en algunas aportaciones de la pedagogía musical, en especial Willems y Martenot y experimentar dicha investigación en el aula. La investigación llevada a cabo, se ha articulado en torno a los siguientes aspectos: A. Investigación en el aula, donde la experiencia fue planteada como a continuación se detalla; A.1. Todos los grupos pasan una serie de pruebas que sirven de pre-test y consisten en la realización del test de Bentley, de un dictado rítmico discriminando entre GNUJ y de un dictado melódico discriminando entre las notas do, re, mi, fa, sol. A.2. Se desarrolla la experiencia con los grupos experimentales de forma que puedan trabajar con todos los programas de ritmo, entonación e interválica en cada sesión. A.3. Y tras el periodo experimental se aplican de nuevo las pruebas anteriores constituyendo el post-test. B. Participación del profesorado en ejercicio. Test de Bentley, dictado rítmico, dictado melódico, microcomputadoras Commodore 64 y Macintosh, lenguaje Basic. Porcentajes, coeficiente de correlación, cuadros, regresión simple. Tras la aplicación de los programas informáticos de lectura musical, los sujetos participantes obtuvieron ganancias significativas en la discriminación rítmica y no significativas en la discriminación melódica. Por otro lado, el bloque de interválica constituye una variable predictiva importante del cómputo global de puntuaciones en los tres campos estudiados, ritmo, entonación e interválica. También se constata la adecuación de la mayoría de los programas al nivel educativo experimentado.
Resumo:
El artículo pertenece a una sección monográfica dedicada a la escuela en la sociedad digital
Resumo:
Se propone la relevancia del punto de vista en la comunicación humana y la necesidad de investigar el fenómeno con criterios interdisciplinares. Se trata de alcanzar una definición del punto de vista-perspectiva como noción discursiva. Esta definición debe poseer unos rasgos de amplitud, flexibilidad y tanta precisión y operatividad como sea posible. Se delimita el área de influencia en el discurso y una comprobación empírica de dicha influencia. La perspectiva es un organizador del texto, de tal manera que al manipular todos o alguno de los elementos que la definen, la desorganización generada afectará significativamente a la comprensión del discurso. La influencia ejercida por esta manipulación podrá medirse a través de tres tipos distintos de variables: el rendimiento en una prueba de comprensión, las latencias empleadas, tanto en la lectura del discurso, como en la ejecución de la prueba de comprensión y la puntuación otorgada por los sujetos a la dificultad del material empleado. El rendimiento en la prueba de comprensión será menor en los grupos experimentales (discurso con la perspectiva manipulada) que en los grupos controles (discurso con la perspectiva no manipulada). El material discursivo empleado es un microtexto extraído de la novela de Ramón Pérez de Ayala 'Tigre Juan y el curandero de su honra' (1980, p. 344-346). Se caracteriza por estar realizado con una técnica de contrapunto, que permite que los monólogos se presenten de manera simultánea. La muestra está formada por alumnos de primer año de Psicología, que no habían cursado estudios de Literatura en COU y por profesores universitarios y de institutos, licenciados en cualquier especialidad de Filología, excepto Hispánicas. La prueba se realiza individualmente en un microordenador, a través de la pantalla se ofrecen las instrucciones necesarias para el uso, lectura y realización del cuestionario. Los valores obtenidos en los tiempos de lectura de los textos resultaron no ser significativos estadísticamente para ninguna de las variables tenidas en cuenta. Se confirma la manipulación de la identidad enunciante, es una forma relevante de manipulación de la perspectiva del discurso, siempre que los contenidos concretos de un texto no incluyan informaciones excesivamente explícitas y facilitadoras de falsas inferencias. La inconsistencia de los resultados obtenidos mediante el registro de las latencias, con los obtenidos a través del cuestionario de comprensión, obliga a considerar la posibilidad de estar ante dos metodologías diferentes de la evaluación de los procesos de comprensión ya que no hay correlación entre los datos procedentes de ambas fuentes. Los datos parecen apoyar la hipótesis de que ante un discurso complejo, personas con muy distinto grado de conocimiento lingüístico se comportan de manera similar, tanto a nivel de conducta real, como a nivel de autoinforme .
Resumo:
Entre la impresionante floración de procedimientos de cálculo, provocada por la aplicación intensiva del ordenador, el llamado Método de los Elementos de Contorno (Boundary Element Method o Boundary Integral Equation Method) parece afianzarse como una alternativa útil al omnipresente Método de los Elementos Finitos que ya ha sido incorporado, como una herramienta de trabajo más, al cotidiano quehacer de la ingeniería. En España, tras unos intentos precursores que se señalan en el texto, la actividad más acusada en su desarrollo y mejora se ha centrado alrededor del Departamento que dirige uno de los autores. Después de la tesis doctoral de J. Domínguez en 1977 que introdujo en España la técnica del llamado "método directo", se han producido numerosas aportaciones en forma de artículos o tesis de investigación que han permitido alcanzar un nivel de conocimientos notable. En esta obrita se pretende transmitir parte de la experiencia adquirida, siquiera sea a nivel elemental y en un campo limitado de aplicación. La filosofía es semejante a la del pequeño libro de Hinton y Owen "A simple guide to finite elements" (Pineridge Press, 1980) que tanta aceptación ha tenido entre los principiantes. El libro se articula alrededor de un sólo tema, la solución del problema de Laplace, y se limitan los desarrollos matemáticos al mínimo imprescindible para el fácil seguimiento de áquel. Tras unos capítulos iniciales de motivación y centrado se desarrolla la técnica para problemas planos, tridimensionales y axisimétricos, limitando los razonamientos a los elementos más sencillos de variación constante o lineal. Finalmente, se incluye un capítulo descriptivo donde se avizoran temas que pueden provocar un futuro interés del estudioso. Para completar la información se ha añadido un apéndice en el que se recoge un pequeño programa para microordenador, con el objetivo de que se contemple la sencillez de programación para el caso plano. El programa es mejorable en muchos aspectos pero creemos que, con ello, mantiene un nivel de legibilidad adecuado para que el lector ensaye sobre él las modificaciones que se indican en los ejercicios al final del capítulo y justamente la provocación de ese aprendizaje es nuestro objetivo final.
Resumo:
Los métodos numéricos aplicados al estudio de estructuras sometidas a esfuezos de origen sísmico han sido utilizados habitualmente en ingeniería. La limitación tradicional con que se encontraba el analista radicaba en el enorme esfuerzo de cálculo mecánico necesario para obtener respuestas significativas tan pronto como el modelo matemático a analizar presentaba una cierta complejidad. Esta situación se vió sustancialmente modificada por la aparición del ordenador que, justamente, libera al proyectista del trabajo repetitivo irracional y permite dedicar tiempo a la reflexión, a la par que aumenta espectacularmente la capacidad de modelado. No es extraño pues, que en los ultimos 30 años se haya asistido a un renacimiento de una rama de la Matemática que parecía agostada y que ,fecundada por la nueva herramienta ha florecido en un sinf{n de técnicas y procedimientos que ponen al alcance del ingeniero el análisis de virtualmente, cualquier problema estructural. En este capítulo se pretende exponer algunas de las ideas subyacentes en estos métodos nuevos así como su posible aplicación al campo que nos interesa. Evidentemente, la limitación de espacio impedirá profundizar adecuadamente en los temas, pero la finalidad última será dotar al estudioso de un marco general en el que situar posteriores aventuras intelectuales. El contenido se articula en tres grupos principales que se refieren, respectivamente al modelado de la solicitación sísmica, de la estructura y cimiento, y al análisis de la respuesta. Tras lo dicho anteriormente, una exposición que no incluyese alguna manifestación palpable de la influencia de la máquina, estaría indefectiblemente esviada. Por ello, se incluyen como apéndices cuatro bloques de subrutinas; dos de ellas, en lenguaje Basic de microordenador, se refeiren a la transformada rápida de Fourier de la que se hablará más adelante, y al cálculo de autovalores de estructuras formadas por barras; la tercera es un pequeño programa en Fortran IV, que permite obtener la respuesta de un sistema de un grado de libertad por un método de integracidn paso a paso. En el primer apartado se inserta tambien un programa de determinación de hipocentros. Todas las subrutinas son elementales y ampliamente mejorables. Creemos sin embargo que ello las hace especialmente legibles lo que puede impeler su uso y mejora par el estudiante ; intervención, en definitiva ,deseada y que es el más importante objetivo al que aspiramos.
Resumo:
Este proyecto tiene como finalidad el desarrollo de un sistema de detección de caídas para personas de edad avanzada basado en el uso de acelerómetros. El 30 % de los mayores se cae una vez al año y estas caídas causan el 70 % de los accidentes mortales en el colectivo de personas mayores de 75 años. Por esta razón, se pretende realizar un sistema fiable y que ofrezca una respuesta de emergencia efectiva, así como un sistema poco intrusivo y fácil de usar. Inicialmente, se realizó un análisis de los sistemas de este tipo propuestos o existentes en el mercado, con el objetivo de detectar las carencias de los mismos, así como identificar los requisitos a implementar en el sistema. La monitorización de las actividades y caídas tanto en el Virtual Living Lab AIDE como en el despliegue real del sistema permitió diseñar el algoritmo de detección. Este algoritmo se integra en un sistema compuesto por un dispositivo detector portable desarrollado sobre el microordenador Beaglebone Green. El dispositivo, poseedor de la autonomía y conectividad requeridos, está pensado para ser llevado sujeto a la cintura. Como parte de la respuesta de emergencia, se crearon dos aplicaciones Android. Una de ellas ideada para usuarios que vivan solos y la otra para los que estén acompañados de una persona encargada de su cuidado. El sistema persigue favorecer la autonomía de una persona que cuida a otra, pero también la de la persona cuidada. Mediante la monitorización no intrusiva, se consigue que la persona cuidada se sienta menos dependiente y tenga menos miedo, pues, si se cae, el sistema avisará a quien tenga que hacerlo. En el diseño de este sistema ha sido relevante contemplar ciertos aspectos particulares sobre el tipo de usuario final al que iba dirigido, que era, principalmente, personas mayores. Esto ha condicionado el aspecto de la interfaz y el diseño físico del aparato. Sobre todo, ha condicionado la interacción, siendo el objetivo requerir el menor número de acciones posible. El sistema se probó con los tipos de caída más frecuentes que son las frontales, traseras y laterales, lográndose un índice de acierto aproximado del 90’78 %, constituyendo un primer resultado prometedor. Aparte de mejorar el ratio de aciertos, se pueden llegar a alcanzar otros hitos como un diseño más ergonómico o el refinamiento del algoritmo de detección de caídas. Se espera que este proyecto contribuya de manera notable al ámbito de la detección automática de caídas, ya sea mediante la publicación del sistema o por la recopilación de información.