1000 resultados para PROGRAMACIÓN PARALELA (COMPUTADORES)
Resumo:
Ejercicios de la práctica 2. Programación con GRAFCET de un PLC.
Resumo:
Esta divulgación docente recoge los ejercicios resueltos de aquellos exámenes realizados durante los curso 2005-2011, correspondientes a la asignatura Aplicación de Ordenadores de 3º curso de la titulación de Ingeniería Técnica de Obras Públicas de la Escuela Politécnica Superior de la Universidad de Alicante. El contenido de esta colección de exámenes versa sobre fundamentos de programación y algoritmos.
Resumo:
En este trabajo se analiza el uso que se hace de un conjunto de recursos multimedia incluidos en un curso en línea de acceso libre y gratuito sobre Redes de Computadores. Este estudio se lleva a cabo a partir de la interacción que un grupo de estudiantes de ingenierías tienen con estos recursos durante su proceso de aprendizaje. Estos recursos educacionales se basan en una aproximación Web 2.0 y por si solos forman parte de una metodología docente fundamentada en el autoaprendizaje a distancia. Entre estos recursos destaca el uso de un blogs, OCW, videos y simulaciones. Estos recursos educativos ‘open-free’ han sido diseñados como elementos que facilitan la aplicación de una metodología de enseñanza a distancia basada en muchos casos en el auto-aprendizaje y en potenciar el aprendizaje autónomo. Además, la percepción que se tiene sobre estos recursos juega un papel relevante en la aceptación de estos por parte del estudiante. Cualquier nuevo recurso educativo que se diseñe, además de didáctico, tiene que ser atractivo y de un uso sencillo e interactivo para el estudiante. El trabajo que aquí se presenta, busca analizar la usabilidad de estos recursos por parte del estudiante para desarrollar futuras mejoras.
Resumo:
El diseño de los recursos educativos permite a los estudiantes modificar su proceso de aprendizaje. En particular, los recursos educativos on-line descargables han sido utilizados con éxito en la educación en ingeniería en los últimos años. Por lo general, estos recursos son gratuitos y accesibles desde la web. Además, son diseñados y desarrollados por profesores y usados por sus estudiantes. Pero, rara vez se desarrollan por los estudiantes con el fin de ser utilizados por otros estudiantes. En este artículo, profesores y estudiantes trabajan juntos para implementar recursos educativos de libre distribución, que puedan ser utilizados por los estudiantes para mejorar el proceso de aprendizaje de redes de computadores en los estudios de ingeniería. En particular, se virtualizan topologías de red para modelar redes LAN (Local Area Network) y MAN (Metropolitan Area Network) con el fin de simular el comportamiento de los enlaces y nodos cuando están interconectados con diferente diseño físico y lógico. Para ello, usando el software de libre distribución GNS3, y teniendo como base la configuración de la red del laboratorio L24 de la EPS, se construye un entorno virtual que simula las posibilidades reales de este laboratorio.
Resumo:
Este artículo aborda la investigación, realizada con los estudiantes del primer semestre de la titulación de Informática de la Facultad de Filosofía, Letras y Ciencias de la Educación de la Universidad Central del Ecuador, cuyo propósito ha sido analizar el uso de entornos de programación no mediados simbólicamente como herramienta didáctica para el desarrollo del pensamiento computacional. Se pretende establecer las posibles ventajas de aplicar este tipo de entorno para que los estudiantes desarrollen habilidades del pensamiento computacional tales como la creatividad, modelación y abstracción, entre otras, consideradas relevantes dentro de la programación. La metodología en que se apoyó la investigación es mixta, con investigación de campo y documental a nivel descriptivo. Se utilizó como instrumento un cuestionario para la recolección de datos entre el alumnado de la titulación. Finalmente, con la información recopilada se procedió al procesamiento de datos a partir de la estadística descriptiva para, así, obtener resultados que permitiesen alcanzar las pertinentes conclusiones y recomendaciones.
Resumo:
La enseñanza en inglés es uno de los retos a los que se está enfrentando actualmente la universidad española. La Universidad de Alicante ofrece a través de los grupos de Alto Rendimiento Académico (ARA) parte de la docencia de los estudios de grado en inglés. El objetivo principal de esta red es la de consolidar y ampliar la investigación realizada en metodologías de aprendizaje para grupos ARA en la materia de arquitectura de computadores. En consecuencia, se pretende ampliar los materiales docentes en inglés en relación con la enseñanza de asignaturas relacionadas con la materia en estos grupos de alto rendimiento. Estas asignaturas son impartidas por varios miembros de la red en diferentes cursos de los Grados de Ingeniería Informática y de Ingeniería en Sonido e Imagen en Telecomunicación. Como caso práctico, se ha continuado con la investigación en la asignatura Arquitectura de Computadores del Grado de Ingeniería Informática. Para ello, se han elaborado nuevos materiales para prácticas que permiten la participación activa y el trabajo en equipo. Cada uno de los materiales propuestos está diseñado dentro del marco metodológico implementado en la asignatura, relacionado con la consecución de objetivos y competencias, y con la evaluación de la misma.
Resumo:
El diseño de recursos educacionales y materiales didácticos vía on-line permite mejorar el aprendizaje autónomo y a distancia (o no presencial). El proceso de convergencia Europea del Espacio de Educación Superior determina que el empleo de este tipo de recursos dota al estudiante de más flexibilidad, aunque la metodología de educación dominante sea la tradicional (es decir, las clases presenciales). Los recursos educacionales on-line juegan un rol importante en este contexto. En trabajos previos se ha experimentado diseñando cursos con ayuda de un LCMS (Learning Content Management System) como el Moodle corporativo de la UA, incorporando documentos SCORM para diseñar lecciones de autoevaluación, con laboratorios virtuales y otras herramientas de simulación de diseño propio (KIVANS, applets KIVANS+EJS). En esta nueva red se pretende generar nuevos recursos didácticos basados en software libre. Ninguno de los laboratorios virtuales desarrollados hasta ahora permiten a los alumnos poner en práctica los desarrollos de las clases presenciales a distancia. Para ello, usando el software de libre distribución GNS3, y teniendo como base la configuración de la red del laboratorio L24 de la EPS, se pretende construir un entorno virtual que simule las posibilidades reales de este laboratorio.
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
Resumo:
El presente proyecto se enmarca en el área de métodos formales para computación; el objetivo de los métodos formales es asegurar, a través de herramientas lógicas y matemáticas, que sistemas computacionales satisfacen ciertas propiedades. El campo de semántica de lenguajes de programación trata justamente de construir modelos matemáticos que den cuenta de las diferentes características de cada lenguaje (estado mutable, mecanismos de paso de parámetros, órdenes de ejecución, etc.); permitiendo razonar de una manera abstracta, en vez de lidiar con las peculiaridades de implementaciones o las vaguezas de descripciones informales. Como las pruebas formales de corrección son demasiado intrincadas, es muy conveniente realizar estos desarrollos teóricos con la ayuda de asistentes de prueba. Este proceso de formalizar y corrobar aspectos semánticos a través de un asistente se denomina mecanización de semántica. Este proyecto – articulado en tres líneas: semántica de teoría de tipos, implementación de un lenguaje con tipos dependientes y semántica de lenguajes imperativos con alto orden - se propone realizar avances en el estudio semántico de lenguajes de programación, mecanizar dichos resultados, e implementar un lenguaje con tipos dependientes con la intención de que se convierta, en un mediano plazo, en un asistente de pruebas. En la línea de semántica de teoría de tipos los objetivos son: (a) extender el método de normalización por evaluación para construcciones no contempladas aun en la literatura, (b) probar la adecuación de la implementación en Haskell de dicho método de normalización, y (c) construir nuevos modelos categóricos de teoría de tipos. El objetivo de la segunda línea es el diseño e implementación de un lenguaje con tipos dependientes con la intención de que el mismo se convierta en un asistente de pruebas. Una novedad de esta implementación es que el algoritmo de chequeo de tipos es correcto y completo respecto al sistema formal, gracias a resultados ya obtenidos; además la implementación en Haskell del algoritmo de normalización (fundamental para el type-checking) también tendrá su prueba de corrección. El foco de la tercera línea está en el estudio de lenguajes de programación que combinan aspectos imperativos (estado mutable) con características de lenguajes funcionales (procedimientos y funciones). Por un lado se avanzará en la mecanización de pruebas de corrección de compiladores para lenguajes Algollike. El segundo aspecto de esta línea será la definición de semánticas operacional y denotacional del lenguaje de programación Lua y la posterior caracterización del mismo a partir de ellas. Para lograr dichos objetivos hemos dividido las tareas en actividades con metas graduales y que constituyen en sí mismas aportes al estado del arte de cada una de las líneas. La importancia académica de este proyecto radica en los avances teóricos que se propone en la línea de semántica de teoría de tipos, en las contribución para la construcción de pruebas mecanizadas de corrección de compiladores, en el aporte que constituye la definición de una semántica formal para el lenguaje Lua, y en el desarrollo de un lenguaje con tipos dependientes cuyos algoritmos más importantes están respaldados por pruebas de corrección. Además, a nivel local, este proyecto permitirá incorporar cuatro integrantes al grupo de “Semántica de la programación”.
Resumo:
The unbridled consumption of electronic equipment associated with fast immersion of new technologies on the market leads to the accelerated growth of electronic waste. Such waste mostly contains printed circuit boards in its structure. Printed circuit boards have many metals, including heavy metals, being highly toxic. Electronic waste is discarded improperly and indiscriminately, usually without any previous treatment and with other municipal waste, contaminating the environment and causing serious problems to human health. Beyond these metals, there are also precious metals and high value-added basis, that can be recovered and recycled, reducing the exploration of natural resources. Thus, due to the high growth potential and reuse of these waste treatment processes, characterization and separation were applied to the printed circuit boards. The printed circuit boards were subjected to physical treatments such as dismantling, crushing, sizing separation, magnetic separation and chemical treatments such as pyrolysis and leaching. Through characterization process (pyrolysis and leaching) the proportions of the components of the granulometric range were determined: 46,08% of metals; 23,32% of polymers and 30,60% of ceramics. It was also observed by particle size separation that metal components tend to concentrate in coarse fractions, while polymeric and ceramic components in fine fractions. From the magnetic separation process was obtained 12,08% of magnetic material and 82,33% of non-magnetic material.
Resumo:
This study proposes a solution responsible for scheduling data processing with variable demand in cloud environments. The system built check specific variables to the business context of a company incubated at Digital Metropole Institute of UFRN. Such a system generates an identification strategy machinery designs available in a cloud environment, focusing on processing performance, using data load balancing strategies and activities of parallelism in the software execution flow. The goal is to meet the seasonal demand within a standard time limit set by the company, controlling operating costs by using cloud services in the IaaS layer.
Resumo:
Cada vez son más los usuarios que optan por usar un juez online de programación como entrenamiento para un concurso de programación o inclusive como herramienta de estudio en el ámbito docente. No obstante, es natural que con su uso se cometan errores que muchas veces no se alcanzan a entender. Por ello, en este proyecto, se trata de resolver esa carencia mediante el ofrecimiento de pistas a los usuarios. Es decir, dado un problema con un formato concreto y una solución en código fuente, se devuelve una ayuda sobre el error cometido en la solución, lo cual supone, no solo una ayuda para participantes en concursos, sino también para alumnos y profesores que pueden beneficiarse de esta ayuda. De hecho, el uso de herramientas de corrección automática está en aumento, y con la solución propuesta, se podría obtener pistas para los problemas que respeten el formato esperado.
Resumo:
VALENTIM, R. A. M.; NOGUEIRA, I. A.;ROCHA NETO, A. F. Utilizando a porta paralela para controle remoto de um dispositivo. Revista da FARN, Natal, v. 2, p. 103-114, 2002.
Resumo:
Programa de doctorado: Patología quirúrgica, reproducción humana y factores psicológicos y el proceso de enfermar. La fecha de publicación es la fecha de lectura.
Resumo:
Aquí se expone un ejemplo de programación dinámica, el cual muestra una aplicación directa del principio de optimalidad en problemas de múltiples etapas. No obstante que la aplicación de este ejemplo se reduce a casos en que hay que tomar dos decisiones únicamente, en situaciones reales son diversos los problemas de este tipo y de ahí su importancia. Por otra parte, la forma de solución aquí expuesta resulta accesible aun para aquellos poco versados en programación dinámica. Creador de principios de optimalidad y uno de los principales propulsores de los principios teóricos que gobiernan esta variedad reciente de la programación matemática es R. E. Bellman. El término programación dinámica se define como: un sistema de optimización donde se puede representar cada una de las variables como función de un parámetro común y si este parámetro es el tiempo, entonces se trata de un problema de programación dinámica. Las técnicas de solución son aplicables, entre otros, a los procesos de decisiones de múltiples etapas en las cuales la decisión que se toma en cada etapa depende de las decisiones tomadas previamente.