9 resultados para Traducción - Estudio y enseñanza
em Universidad de Alicante
Resumo:
Este trabajo pretende ser una guía de las investigaciones en historia de la química. Consta de dos partes muy relacionadas entre sí. En la primera parte se ha descrito el desarrollo de la historia de la química como área de investigación, desde sus orígenes hasta el siglo XX. En esta segunda parte se ofrece una lista ordenada de fuentes de información indispensables para trabajar en historia de la química. También se describen las características de las principales instituciones europeas dedicadas a la historia de la química, a partir de una encuesta recientemente realizada por la sociedad europea de sociedades químicas. Información bibliográfica adicional se ofrece en
Resumo:
Internet se ha convertido en un espacio central para el estudio y la difusión de la Literatura Infantil y Juvenil (LIJ). En la red encontramos dos modelos distintos, la sección de LIJ (BLIJ) de la Biblioteca Virtual Miguel de Cervantes y los espacios de la Web Social, como los blogs, los wikis o las redes sociales, englobados en el concepto LIJ 2.0 (Literatura y Lectura Infantil y Juvenil). En esta investigación se hace un análisis de ambos modelos planteando distintas maneras de integración y de explotación didáctica.
Resumo:
La red pretende servir de plataforma para la coordinación de las asignaturas de cuarto curso que constituyen el itinerario de Gestión de Contenidos correspondiente al grado de Ingeniería Multimedia para la ejecución de una metodología basada en proyectos. La red ha detectado los problemas de coordinación asociados a gestionar simultáneamente proyectos de naturaleza variada y las posibilidades de conexión de estos mismos con las asignaturas de Prácticas de empresa I y II y la elaboración del Trabajo de Fin de Grado. Se proponen soluciones para paliar estos problemas y se explica el alcance de los objetivos a conseguir.
Resumo:
Convencidos de la idoneidad de realizar un seguimiento y revisión anual de la titulación de Ingeniería Multimedia se propuso para el curso académico 2013/14 el presente proyecto de red, que tiene por objetivo revisar y analizar los contenidos, materiales y metodologías docentes de las distintas asignaturas con el propósito de subsanar las posibles insuficiencias detectadas, y consecuentemente, mejorar la calidad de la docencia y el rendimiento del alumnado en el aprendizaje. En esta memoria se presentan los resultados de la evaluación de las asignaturas del primer curso y el análisis comparativo con cursos anteriores, obteniendo datos muy positivos, lo que muestra, un año más, la preparación y motivación de los actuales alumnos y futuros Ingenieros/as Multimedia.
Resumo:
En esta memoria se describe el proyecto llevado para establecer los mecanismos y procedimientos para el seguimiento y control de calidad de las asignaturas del segundo curso del Grado en Ingeniería Multimedia, curso 2013/2014. En concreto, los mecanismos de control se centran en la planificación de las sesiones docentes y las actividades de evaluación llevadas a cabo en cada una de dichas asignaturas.
Resumo:
Exposición y análisis de los argumentos que utilizó Melchor de Ávalos en la "Segunda carta para la S.C.M.R acerca de los mahometanos de las Philipinas", que dirige a Felipe II en 1585. Se concluye que son argumentos del derecho canónico que ya se utilizaron para justificar la conquista de al-Andalus primero y luego la expulsión de los moriscos. Se publica como apéndice este documento.
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
Resumo:
El objetivo general de este trabajo fin de máster es el análisis y síntesis de los principales estudios realizados, hasta la fecha, así como la profundización en la investigación sobre la importante tasa de subsidencia que está experimentando la cuenca del Alto Guadalentín durante las últimas décadas. El objetivo general anteriormente expuesto se puede dividir en los siguientes objetivos específicos: • Confirmación de que la subsidencia del Valle del Guadalentín está provocada, principalmente, por la sobreexplotación de acuíferos, y en todo caso, detectar si existe alguna causa secundaria, como la tectónica. • Justificación de los motivos por los cuáles existen dificultades para encontrar los signos externos de subsidencia, del apartado anterior, en el Valle del Guadalentín a diferencia de otros casos del mismo tipo de subsidencia en el mundo. • Localización e identificación de casos concretos de consecuencias físicas del fenómeno de la subsidencia en el terreno, tales como grietas y hundimientos en el terreno, patologías en construcciones y variaciones anómalas de la pendiente en parcelas y canales de riego.