945 resultados para Programación de ordenadores
Resumo:
Resúmen tomado del autor. Resumen en inglés y castellano
Resumo:
Este trabajo campara la aplicación de dos metodologías docentes y dos instrumentos de evaluación en dos grupos de la misma asignatura. Uno de los grupos ha seguido una metodología docente a distancia apoyada en una plataforma de e-learning, con contenidos docentes en formato electrónico, tutorías virtuales, un foro de comunicaciones, ejercicios de auto-evaluación, trabajos individuales y trabajos en grupo. El otro grupo comparte los mismos contenidos docentes pero sigue una metodología que se basa en la impartición de clases presenciales de tipo magistral y clases prácticas de resolución de problemas y en la que se realiza un proyecto en equipo que se entrega en tres hitos. En ambos casos se ha utilizado una rúbrica por parte del profesor para evaluar los trabajos y otra por parte del alumno para valorar la actividad y competencia trabajo en equipo. Además se ha realizado un examen tradicional aunque sin efecto en la calificación final del alumno como referencia de comparación. En este sentido se muestra la experiencia en el empleo de la rúbrica en el contexto de la docencia en Ingeniería, y, en este caso, respecto de un instrumento tradicional como es una prueba de evaluación escrita.
Resumo:
Entrevista a Francisco Serradilla sobre las relaciones entre literatura y computación, creatividad e ingeniería.
Resumo:
Monográfico con el título: 'Patrones de eLearning y objetos de aprendizaje generativos'.Resumen basado en el de la publicación
Resumo:
Cada vez son más los usuarios que optan por usar un juez online de programación como entrenamiento para un concurso de programación o inclusive como herramienta de estudio en el ámbito docente. No obstante, es natural que con su uso se cometan errores que muchas veces no se alcanzan a entender. Por ello, en este proyecto, se trata de resolver esa carencia mediante el ofrecimiento de pistas a los usuarios. Es decir, dado un problema con un formato concreto y una solución en código fuente, se devuelve una ayuda sobre el error cometido en la solución, lo cual supone, no solo una ayuda para participantes en concursos, sino también para alumnos y profesores que pueden beneficiarse de esta ayuda. De hecho, el uso de herramientas de corrección automática está en aumento, y con la solución propuesta, se podría obtener pistas para los problemas que respeten el formato esperado.
Resumo:
El actual auge de internet y las comunicaciones genera inmensas cantidades de información. De entre toda esta información tiene especial interés aquella que es personal y privada, ya que puede comprometer la seguridad o intimidad de las personas. La información médica de una persona es una de las más vulnerables y es de vital importancia proteger la identidad de los pacientes, así como los resultados y diagnósticos a los que se someten. Este trabajo se centra en intentar dificultar la identificación de una persona a partir de datos que se publican en las bases de datos médicas de los programas de screening, generando citas que agrupen individuos con mismos datos públicos: edad, género, etc... Se propone una solución basada en la programación con restricciones y se presenta una nueva medida de anonimato. Se compara experimentalmente el incremento en el anonimato que se obtiene en nuestra propuesta con respecto a la generación aleatoria de citas.
Resumo:
Resumen tomado de la publicación
Resumo:
Elaborar unos apuntes que sirvan de referencia en el curso de iniciación al lenguaje de programación BASIC, entre cuyos objetivos se encuentra el manejo del ordenador Olivetti M-20, dentro del ámbito de la Formación Profesional de segundo ciclo. Alumnos de FP2, rama del metal, del Instituto Politécnico de Formación Profesional de Zaragoza. Se presentan los pasos previos hasta la redacción de las órdenes ejecutables por el ordenador, en lenguaje de programación BASIC: definición y descripción del problema, confección del algoritmo, codificación, prueba, documentación e implementación del programa. A continuación, se describe la programación de la asignatura llevada a cabo durante el curso 83-84, donde se definen los objetivos de las unidades temáticas y los contenidos a impartir en cada evaluación. Por último, se anexan los apuntes de 'Control Numérico y programas',y los de 'Ajustes y Tolerancias. Rugosidad y programas'. Es viable la enseñanza de un lenguaje de programación de ordenadores, en este caso el BASIC, así como la del manejo de ordenadores, aún cuando los alumnos no poseen conocimientos previos de informática. Sin embargo, sería recomendable que los alumnos que llegan a FP2 tuviesen, al menos, unos conocimientos elementales, resultando muy interesantes las experiencias sobre informática a nivel de EGB.
Resumo:
Buscar qué organización metodológica que combine técnicas de resolución de problemas, microordenadores y programación en Logo puede optimizar la adquisición de contenidos Matemáticos, estrategias de resolución de problemas y nociones de programación.. 647 alumnos de séptimo de EGB y segundo de BUP y nivel socio-económico medio-bajo, divididos en 5 muestras, dos de Colegios de EGB (n=104 y 89 respectivamente) y tres de Institutos de BUP (n=159, 137 y 158). No representativas. VI: Método de Enseñanza (4 niveles): tradicional, resolución de problemas en ambientes no computacionales, Enseñanza asistida por ordenador (CAI) con programas tutoriales y resolución de problemas en ambientes computacionales con uso del lenguaje de programación Logo. VD: Tres medidas: aprendizaje de conceptos Matemáticos, adquisición y desarrollo de estrategias de resolución de problemas y adquisición de nociones de programación de ordenadores. Variables controladas: conocimientos previos, inteligencia general, razonamiento numérico, aptitud espacial, razonamiento abstracto, percepción de diferencias, experiencia previa con los ordenadores, edad, status y Centro escolar. Los profesores recibieron instrucciones específicas según el método didáctico que desarrollaron. Cada muestra se subdividió en 4 submuestras, asignando cada una a un nivel determinado de la VI.. Dos pruebas para medir el aprendizaje, protocolo de estrategias de resolución, hoja-protocolo con información sobre el alumno, construir un diagrama de flujo para medir las nociones de programación, test factor G de Cattell, subescalas NA, SR y RA del test DAT, tests de Formas Idénticas. Cálculo de la matriz de correlaciones entre variables. Diferencias de medias pretest posttest entre muestras pertenecientes a un mismo método didáctico para EGB, ANOVA y ANCOVA para los INB comprobar el efecto de la VI: ANCOVA. Tipos y frecuencia de uso de diferentes estrategias de resolución: estadística descriptiva y análisis Cluster. Homogeneidad entre grupos de EGB: diferencia de medias. Se observan efectos debidos al tipo de Colegio o Instituto dentro de un mismo método didáctico y una relación entre las variables y los factores de inteligencia y de aptitud. Al considerar como covariables los conocimientos previos o a inteligencia y los factores de actitud se observan diferencias debidas al empleo o no de ordenador y al uso de una metodología basada en la resolución de problemas en las variables de Cálculo y Geometría. También existen diferencias en nociones de programación. Respecto a las estrategias de resolución empleadas al comparar los análisis pretest y posttest, se observa una influencia moderada del tipo de método. En general, los métodos basados en la resolución de problemas son más eficaces. El uso del ordenador favorece determinadas estrategias y su valor fundamental es curricular.
Resumo:
Esta tesis trata de las llamadas relaciones de conformidad que pueden darse entre dos sistemas cualesquiera, especificación e implementación. Como novedad introduce el uso de técnicas coinductivas para la definición de iocos, una relación de conformidad capaz de distinguir el contexto local de ejecución de un proceso. Al constituir iocos la parte central de una nueva teoría de Model Based Testing (MBT), se precisa de una descripción formal de los sistemas en juego; esto se lleva a cabo en primera instancia mediante sistemas de transiciones etiquetadas y posteriormente mediante un enfoque más abstracto, un álgebra de procesos. Las teorías de testing tienen por objeto confirmar las relaciones de conformidad mediante la ejecución de un conjunto de tests sobre un sistema –la implementación– cuya estructura interna se desconoce. Particularmente los beneficios de un enfoque MBT son inmediatos, ya que la generación de los tests puede abordarse de manera sistemática una vez se disponga de un modelo formal de la especificación, lo que contribuye a eliminar el error imputable al factor humano; esto se logra dando un algoritmo generador de tests que toma cono entrada una especificación y produce un conjunto de tests, posiblemente infinito, suficientemente representativo para asegurar la relación de conformidad. Este enfoque inicial, conocido como testing offline o testing estático, es mejorado para ganar en eficiencia evitando un alto consumo en recursos tanto de tiempo como de memoria mediante la técnica de testing online o testing dinámico, donde ambos pasos de generación y ejecución se ejecutan de manera alternada...
Resumo:
Las redes de Petri son un lenguaje formal muy adecuado para la modelizacíon, ańalisis y verificacíon de sistemas concurrentes con infinitos estados. En particular, son muy apropiadas para estudiar las propiedades de seguridad de dichos sistemas, dadas sus buenas propiedades de decidibilidad. Sin embargo, en muchas ocasiones las redes de Petri carecen de la expresividad necesaria para representar algunas caracteŕısticas fundamentales de los sistemas que se manejan hoy en d́ıa, como el manejo de tiempo real, costes reales, o la presencia de varios procesos con un ńumero no acotado de estados ejecut́andose en paralelo. En la literatura se han definido y estudiado algunas extensiones de las redes de Petri para la representaci ́on de las caracteŕısticas anteriores. Por ejemplo, las “Redes de Petri Temporizadas” [83, 10](TPN) incluyen el manejo de tiempo real y las ν-redes de Petri [78](ν-PN) son capaces de representar un ńumero no acotado de procesos con infinitos estados ejecut́andose concurrentemente. En esta tesis definimos varias extensiones que réunen estas dos caracteŕısticas y estudiamos sus propiedades de decidibilidad. En primer lugar definimos las “ν-Redes de Petri Temporizadas”, que réunen las caracteŕısticas expresivas de las TPN y las ν-PN. Este nuevo modelo es capaz de representar sistemas con un ńumero no acotado de procesos o instancias, donde cada proceso es representado por un nombre diferente, y tiene un ńumero no acotado de relojes reales. En este modelo un reloj de una instancia debe satisfacer ciertas condiciones (pertenecer a un intervalo dado) para formar parte en el disparo de una transicíon. Desafortunadamente, demostramos que la verificacíon de propiedades de seguridad es indecidible para este modelo...
Resumo:
La ecografía es hoy en día uno de los métodos de visualización más populares para examinar el interior de cuerpos opacos. Su aplicación es especialmente significativa tanto en el campo del diagnóstico médico como en las aplicaciones de evaluación no destructiva en el ámbito industrial, donde se evalúa la integridad de un componente o una estructura. El desarrollo de sistemas ecográficos de alta calidad y con buenas prestaciones se basa en el empleo de sistemas multisensoriales conocidos como arrays que pueden estar compuestos por varias decenas de elementos. El desarrollo de estos dispositivos tiene asociada una elevada complejidad, tanto por el número de sensores y la electrónica necesaria para la adquisición paralela de señales, como por la etapa de procesamiento de los datos adquiridos que debe operar en tiempo real. Esta etapa de procesamiento de señal trabaja con un elevado flujo de datos en paralelo y desarrolla, además de la composición de imagen, otras sofisticadas técnicas de medidas sobre los datos (medida de elasticidad, flujo, etc). En este sentido, el desarrollo de nuevos sistemas de imagen con mayores prestaciones (resolución, rango dinámico, imagen 3D, etc) está fuertemente limitado por el número de canales en la apertura del array. Mientras algunos estudios se han centrado en la reducción activa de sensores (sparse arrays como ejemplo), otros se han centrado en analizar diferentes estrategias de adquisiciónn que, operando con un número reducido de canales electrónicos en paralelo, sean capaz por multiplexación emular el funcionamiento de una apertura plena. A estas últimas técnicas se las agrupa mediante el concepto de Técnicas de Apertura Sintética (SAFT). Su interés radica en que no solo son capaces de reducir los requerimientos hardware del sistema (bajo consumo, portabilidad, coste, etc) sino que además permiten dentro de cierto compromiso la mejora de la calidad de imagen respecto a los sistemas convencionales...
Resumo:
Hoy día vivimos en la sociedad de la tecnología, en la que la mayoría de las cosas cuentan con uno o varios procesadores y es necesario realizar cómputos para hacer más agradable la vida del ser humano. Esta necesidad nos ha brindado la posibilidad de asistir en la historia a un acontecimiento sin precedentes, en el que la cantidad de transistores era duplicada cada dos años, y con ello, mejorada la velocidad de cómputo (Moore, 1965). Tal acontecimiento nos ha llevado a la situación actual, en la que encontramos placas con la capacidad de los computadores de hace años, consumiendo muchísima menos energía y ocupando muchísimo menos espacio, aunque tales prestaciones quedan un poco escasas para lo que se requiere hoy día. De ahí surge la idea de comunicar placas que se complementan en aspectos en las que ambas se ven limitadas. En nuestro proyecto desarrollaremos una interfaz s oftware/hardware para facilitar la comunicación entre dos placas con distintas prestaciones, a saber, una Raspberry Pi modelo A 2012 y una FPGA Spartan XSA3S1000 con placa extendida XStend Board V3.0. Dicha comunicación se basará en el envío y recepción de bits en serie, y será la Raspberry Pi quien marque las fases de la comunicación. El proyecto se divide en dos partes: La primera parte consiste en el desarrollo de un módulo para el kernel de Linux, que se encarga de gestionar las entradas y salidas de datos de la Raspberry Pi cuando se realizan las pertinentes llamadas de write o read. Mediante el control de los GPIO y la gestión de las distintas señales, se realiza la primera fase de la comunicación. La segunda parte consiste en el desarrollo de un diseño en VHDL para la FPGA, mediante el cual se pueda gestionar la recepción, cómputo y posterior envío de bits, de forma que la Raspberry Pi pueda disponer de los datos una vez hayan sido calculados. Ambas partes han sido desarrolladas bajo licencias libres (GPL) para que estén disponibles a cualquier persona interesada en el desarrollo y que deseen su reutilización.