5 resultados para Algoritmos quase-analíticos
em Universidade Complutense de Madrid
Resumo:
En esta Tesis Doctoral presento un estudio sobre la irrupción del Movimiento 15-M en la vida pública española, también conocido como movimiento de los ‘indignados’. Uno de los más relevantes que han surgido en España desde los movimientos de oposición a la Dictadura Franquista y la Transición a la democracia en los años 70 del siglo pasado. Este análisis plantea, asimismo, una aproximación al proceso de modernización y democratización de la sociedad española, en particular, y de las sociedades contemporáneas, en general. Lo hago desde una perspectiva que se centra en estudiarlo desde diferentes supuestos analíticos empleados en el estudio de la participación social y de la acción colectiva y mediante una aproximación metodológica que se apoya esencialmente en cuatro técnicas de investigación social que se complementan entre sí: trabajo de campo etnográfico, entrevistas en profundidad, grupos de discusión y análisis estadístico de datos agregados. Éstas, por tanto, abarcan aproximaciones microsociológicas y macrosociológicas a dicho fenómeno. En particular establezco un dialogo entre: i) los marcos interpretativos clave en los enfoques más culturalistas y comprehensivos en el estudio de los movimientos sociales; ii) la perspectiva de la reflexividad social; iii) algunos enfoques clásicos sobre la sociedad civil, las organizaciones sociales, la democracia y el orden social; y iv) las tres aproximaciones metodológicas que empleo para analizar el significado de la irrupción de este movimiento en 2011 y su continuidad en el tiempo. Desde esta perspectiva me posiciono en una línea de diálogo entre estructura y acción (Gerth & Mills, 1964) que busca distanciarse del sesgo estructuralista (McAdam, 1994; Laraña, 1999) y del sesgo interaccionista (Laraña, 1999) en el estudio de los movimientos sociales, y que me permite analizar aspectos clave de este fenómeno social como son sus bases sociales, su poder de persuasión colectiva y potencial como agencia de significación colectiva, sus marcos de acción colectiva y los procesos de alineamiento de sus marcos, las raíces y relaciones de continuidad y discontinuidad entre este movimiento y otros episodios de movilización anteriores, así como su ‘internacionalización’ y los procesos de cambio acaecidos en sus redes desde que emergiera en la vida pública de este país en Mayo de 2011.
Resumo:
En el presente trabajo se propone dar solución a uno de los problemas principales surgido en el campo del análisis de imágenes hiperespectrales. En las últimas décadas este campo está siendo muy activo, por lo que es de vital importancia tratar su problema principal: mezcla espectral. Muchos algoritmos han tratado de solucionar este problema, pero que a través de este trabajo se propone una cadena nueva de desmezclado en paralelo, para ser acelerados bajo el paradigma de programación paralela de OpenCl. Este paradigma nos aporta el modelo de programación unificada para acelerar algoritmos en sistemas heterogéneos. Podemos dividir el proceso de desmezclado espectral en tres etapas. La primera tiene la tarea de encontrar el número de píxeles puros, llamaremos endmembers a los píxeles formados por una única firma espectral, utilizaremos el algoritmo conocido como Geometry-based Estimation of number of endmembers, GENE. La segunda etapa se encarga de identificar los píxel endmembers y extraerlos junto con todas sus bandas espectrales, para esta etapa se utilizará el algoritmo conocido por Simplex Growing Algorithm, SGA. En la última etapa se crean los mapas de abundancia para cada uno de los endmembers encontrados, de esta etapa será encargado el algoritmo conocido por, Sum-to-one Constrained Linear Spectral Unmixing, SCLSU. Las plataformas utilizadas en este proyecto han sido tres: CPU, Intel Xeon E5-2695 v3, GPU, NVidia GeForce GTX 980, Acelerador, Intel Xeon Phi 31S1P. La idea de este proyecto se basa en realizar un análisis exhaustivo de los resultados obtenidos en las diferentes plataformas, con el fin de evaluar cuál se ajusta mejor a nuestras necesidades.
Resumo:
La verificación formal de un programa es la demostración de que este funciona de acuerdo a una descripción del comportamiento esperado en toda posible ejecución. La especificación de lo deseado puede utilizar técnicas diversas y entrar en mayor o menor detalle, pero para ganarse el título de formal esta ha de ser matemáticamente rigurosa. El estudio y ejercicio manual de alguna de esas técnicas forma parte del currículo común a los estudios de grado de la Facultad de Informática y del itinerario de Ciencias de la Computación de la Facultad de Ciencias Matemáticas de la Universidad Complutense de Madrid, como es el caso de la verificación con pre- y postcondiciones o lógica de Hoare. En el presente trabajo se explora la automatización de estos métodos mediante el lenguaje y verificador Dafny, con el que se especifican y verifican algoritmos y estructuras de datos de diversa complejidad. Dafny es un lenguaje de programación diseñado para integrar la especificación y permitir la verificación automática de sus programas, con la ayuda del programador y de un demostrador de teoremas en la sombra. Dafny es un proyecto en desarrollo activo aunque suficientemente maduro, que genera programas ejecutables.
Resumo:
El flujo óptico y la estimación de movimiento es área de conocimiento muy importante usado en otros campos del conocimiento como el de la seguridad o el de la bioinformática. En estos sectores, se demandan aplicaciones de flujo óptico que realicen actividades muy importantes con tiempos de ejecución lo más bajos posibles, llegando a tiempo real si es posible. Debido a la gran complejidad de cálculos que siguen a este tipo de algoritmos como se observará en la sección de resultados, la aceleración de estos es una parte vital para dar soporte y conseguir ese tiempo real tan buscado. Por lo que planteamos como objetivo para este TFG la aceleración de este tipo de algoritmos mediante diversos tipos de aceleradores usando OpenCL y de paso demostrar que OpenCL es una buena herramienta que permite códigos paralelizados con un gran Speedup a la par que funcionar en toda una diversa gama de dispositivos tan distintos como un GPU y una FPGA. Para lo anteriormente mencionado trataremos de desarrollar un código para cada algoritmo y optimizarlo de forma no especifica a una plataforma para posteriormente ejecutarlo sobre las diversas plataformas y medir tiempos y error para cada algoritmo. Para el desarrollo de este proyecto partimos de la teoría de dos algoritmos ya existentes: Lucas&Kanade monoescala y el Horn&Schunck. Además, usaremos estímulos para estos algoritmos muy aceptados por la comunidad como pueden ser el RubberWhale o los Grove, los cuales nos ayudarán a establecer la corrección de estos algoritmos y analizar su precisión, dando así un estudio referencia para saber cual escoger.
Resumo:
En los primeros años de formación de un pianista es vital que el material que se utilice sea adecuado y progresivo, desde el punto de vista técnico, pero que además le aporte musicalmente una iniciación a las diferentes estéticas compositivas de los periodos históricos más representativos. A través de mi experiencia docente he observado que la música contemporánea apenas está presente en la formación reglada de los conservatorios en el Grado Elemental, que corresponde a los primeros cuatro años de estudio (de los ocho a los doce años aproximadamente). Por ello en la presente investigación se ha trabajado con obras españolas para piano pensadas para niños, editadas y compuestas entre 1975 y 2014. Se ha elegido el año 1975 como inicio del estudio por ser un punto de inflexión en la Historia de España. No obstante, se trata previamente el repertorio español para niños en el siglo XX hasta 1975 como contexto creativo previo. También se estudian las obras clave de la historia del repertorio pedagógico para niños, que son el punto de referencia en la formación de todo pianista, desde J. S. Bach, R. Schumann, C. Debussy o B. Bartók, así como otros compositores del siglo XX. Dentro del repertorio español infantil analizado se seleccionan aquellas obras que están editadas, y son accesibles, haciendo la investigación desde dos puntos de vista: 1. Analítico-histórico: importancia de la obra dentro de la producción del compositor a través de breves datos biográficos y catálogo de la producción para piano. 2. Pedagógico: importancia y adecuación de la obra dentro de la formación técnico-pianística en el Grado Elemental...