7 resultados para Métricas da paisagens

em Universidade Complutense de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Many works deal with the study of Greek epigrams. These texts gather precious historical, religious and epigraphic content whose analysis has been addressed from a literary point of view. The degree of dependence of Hellenistic epigrams of earlier period epigrams are of great interest, as shown by recent and numerous papers on this matter (Harder et al . 1998; 2002; 2006; 2012; Bing and Bruss 2007; Baumbach et al. 2010). Another major line of research is focused on the origin of epigrams and their relation to elegy (Gentilli 1968; Passa 1998b) or to hexametric poetry and the oral-formulaic language inherited from Homeric tradition (di Tillio 1969; Moranti 1971, 1972; Gentili and Giannini 1977). Furthermore, other authors, such as Day (2010), have pointed out the significance of the performative and ritual nature of epigrams. Likewise, this field of study has undergone a renewal because of new papyrological findings enriching the existing epigram collection corpora. Compared to all these works, monographs and studies dedicated to the analysis of the language of the verse inscriptions are fewer. Many of them explore the linguistic differences between literary epigrams and those epigrams preserved by epigraphic means, as well as the degree of intervention of later tradition on such texts (Tiberi 1996, del Barrio Vega 2008; Kaczko 2009). The first exclusively linguistic reviews were published by the end of the 19th century (Wagner 1883; Fengler 1892), however, they are descriptive analyses lacking from an independent methodology. Kock(1910) was the first researcher who systematized and suggested a linguistic hypothesis and upheld the use of epichoric dialects by poets. His theory was supported by adepts such as Kretschmer (1913; 1915) although some discordant voices appeared soon, such as Buck (1923) who denied the existence of a linguistic standard and endorsed the importance of the Ionic model over the epichoric one. Traditionally, Greek language manuals point out the significance of the Ionic model and accept the adaptation of Homeric language to epichoric dialect. The study of verse inscription language was not systematically resumed until Mickey's publications (1981a; 1981b). According to this researcher, epigraphic poetry consists of a tempered version of the epichoric dialect where the dialect-characteristic features are avoided. Following the same line but with some differences, Alonso Déniz and Nieto Izquierdo (2009) conclude that the most distinctive features of Argolic are not avoided, at least at the metrical inscriptions from Argolid...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PMCTrack es una herramienta de código abierto para Linux que permite monitorizar el rendimiento de las aplicaciones haciendo uso de los contadores hardware del procesador. Esta herramienta soporta la captura de métricas como el número de instrucciones por ciclo o la tasa de fallos de cache. El objetivo de este proyecto es portar PMCTrack al sistema operativo Android sobre plataformas que integran procesadores de ARM. Esto conlleva la realización de las siguientes tareas: (1) modificación de la variante del kernel Linux propia de Android para incluir las extensiones requeridas por el módulo del kernel de PMCTrack, (2) adaptación de las herramientas de modo usuario de PMCTrack, y (3) desarrollo de una aplicación Android que permita visualizar en tiempo real las medidas de los contadores recabadas para las distintas aplicaciones que están siendo monitorizadas. Para poner a prueba la adaptación de la herramienta PMCTrack al sistema operativo Android y mostrar la utilidad de nuestras aportaciones, se han llevado a cabo diversos casos de estudio empleando la placa de desarrollo Odroid XU4.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto pretende avanzar en el estado del arte de la investigación acerca de los Social Media en las áreas involucradas en aspectos como la detección de regularidades en entornos de los Social Media, la creación de modelos de crecimiento, evolución y propagación o, más en general, el descubrimiento de fenómenos interesantes en torno a la dinámica de los Social Media. Estas áreas abarcarán: La obtención de información mediante la minería del conjunto de datos procedentes de los Social Media, compuestos por contenidos, gente [datos de uso] e interacciones entre los mismos [redes sociales]. La construcción de conocimiento (modelos, métricas, etc.) a partir de la información obtenida mediante minería. El avance en la capacidad de acción en los Social Media mediante la simulación y experimentación con el conocimiento obtenido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las Redes Definidas por Software (Software Defined Networking) permiten la monitorización y el control centralizado de la red, de forma que los administradores pueden tener una visión real y completa de la misma. El análisis y visualización de los diferentes parámetros obtenidos representan la forma más viable y práctica de programar la red en función de las necesidades del usuario. Por este motivo, en este proyecto se desarrolla una arquitectura modular cuyo objetivo es presentar en tiempo real la información que se monitoriza en una red SDN. En primera instancia, las diferentes métricas monitorizadas (error, retardo y tasa de datos) son almacenadas en una base de datos, para que en una etapa posterior se realice el análisis de dichas métricas. Finalmente, los resultados obtenidos, tanto de métricas en tiempo real como de los datos estadísticos, son presentados en una aplicación web. La información es obtenida a través de la interfaz REST que expone el controlador Floodlight y para el análisis de la información se plantea una comparación entre los valores medios y máximos del conjunto de datos. Los resultados obtenidos muestran gráficamente de forma clara y precisa las diferentes métricas de monitorización. Además, debido al carácter modular de la arquitectura, se ofrece un valor añadido a los sistemas actuales de monitorización SDN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta memoria se ha implementado una etapa de preprocesado que sirva como primera fase en el proceso de codificación de vídeo. Esta etapa integra dos variedades del filtro de mediana (3×3 y 5×5) y un operador. Dicho operador lleva a cabo el cálculo del gradiente de los píxeles que conforman una imagen o fotograma con objeto de filtrar después aquellos que están por debajo de un determinado valor (threshold). El cálculo de dicho threshold se realiza de manera empírica mediante dos procesos distintos. En el primero se obtienen valores de luminancia y crominancia de píxeles que integran bordes para encontrar aquel que tenga el valor mínimo, mientras que en el segundo se calcula la tasa de píxeles que forman parte de bordes. Una vez se ha realizado el cálculo anterior, se han utilizado distintos valores de threshold, distintas variedades de filtro de mediana y distintos valores de QP (calidad) con objeto de parametrizar las codificaciones que hacen uso de esta nueva etapa. Posteriormente a dichas codificaciones, se han obtenido los tamaños de los bitstreams de salida y se ha evaluado la calidad de los vídeos decodificados o reconstruidos mediante dos métricas objetivas: PSNR y SSIM. Las codificaciones que no utilizan etapa de preprocesado también han sido evaluadas mediante dichas métricas y comparadas con aquellas que sí integran dicha etapa. Los resultados obtenidos dejan patente el compromiso existente entre tamaño de bitstream y calidad, siendo más representativos los de la métrica SSIM, estando esta última más relacionada con la percepción de la imagen por parte del HVS (sistema visual humano). Como resultado, se obtiene para esta métrica tasas de compresión mayores que las alcanzadas sin preprocesamiento, con pérdidas de calidad prácticamente inapreciables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fusión de imágenes es un proceso que permite obtener una nueva imagen en base a la información que tienen dos o más imágenes, las cuales poseen distinta información de la misma escena, que se combina convenientemente en la nueva imagen fusionada. Para poder obtener esta imagen resultante se utilizan diversas técnicas, requiriéndose identificar las métricas más apropiadas que permitan determinar aquella técnica o técnicas que proporcionen el mejor resultado en términos de calidad de la nueva imagen con la información fusionada. Por tal motivo en el presente trabajo, se realiza un análisis comparativo sobre diversas técnicas de fusión, a saber: promedio simple, máximo/ mínimo valor, análisis de componentes principales, transformada de wavelets y pirámides laplaciana (contraste y morfológica). Cada una de ellas presenta un proceso distinto para el tratamiento de los píxeles correspondientes a las imágenes. Así mismo, se han seleccionado las siguientes métricas cuantitativas para verificar la calidad de las imágenes resultantes fusionadas: error cuadrático medio, relación señal a ruido de pico, contenido estructural, diferencia promedio, correlación cruzada normalizada y entropía.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El movimiento de datos abiertos es relativamente nuevo, ofrece beneficios significativos a la sociedad y a la economía, promueve la democracia y la responsabilidad de los gobiernos públicos fomentando la transparencia, participación y colaboración de los ciudadanos. Por ser un movimiento relativamente nuevo, son los países que lideran el desarrollo quienes ya han implementado políticas de datos abiertos y ya disfrutan de sus beneficios; sin embargo, hay países en los que aún ni siquiera hay iniciativas de datos abiertos o aún están comenzando. En este trabajo se estudia el uso adecuado de buenas prácticas, normas, métricas y estándares para la implantación de datos abiertos de manera sostenible, automatizable y en formatos accesibles que garanticen la reutilización de los datos con el fin de generar valor a través de ellos, al crear nuevos productos y servicios que contribuyan a mejorar la calidad de vida de los ciudadanos. En ese sentido, se realiza un análisis exploratorio de los principios de datos abiertos, se realiza un análisis sobre la situación actual de iniciativas de datos abiertos, y con el fin de que el proyecto sea de máxima aplicabilidad, se realizan pruebas de la métrica Meloda 4.0 sobre conjuntos de datos del Ayuntamiento de Madrid. Se realiza un análisis y evaluación de los portales de datos abiertos de los Ayuntamientos de Madrid, Zaragoza y Barcelona basándose en la Norma UNE 178301:2015. En concordancia con la filosofía de datos abiertos, se estudia y sugiere el uso de tecnologías de código abierto para la publicación de datos abiertos. Finalmente, como resultado y aplicabilidad de todo lo aprendido, se propone el diseño de una metodología para publicación de datos abiertos orientada a entidades públicas que aún no tienen iniciativas o están comenzando a implementar políticas de datos abiertos.