349 resultados para Segmentación
Resumo:
Este trabajo se propone hacer un aporte al estudio de la situación laboral de los jóvenes en un aglomerado argentino en particular, el Gran La Plata, conformado por los partidos de La Plata 'capital de la Provincia de Buenos aires', Berisso y Ensenada. Se trata de un aglomerado urbano que, en líneas generales, ha atravesado por procesos similares a los constatados a nivel nacional en el mercado de trabajo, así como en relación con la evolución de los indicadores de pobreza e indigencia. Distintos estudios han aportado a una caracterización completa del mercado de trabajo local desde principios de los años noventa, pero no se han realizado investigaciones específicas sobre la problemática laboral juvenil en el aglomerado. El período seleccionado para realizar este estudio comprende los años 2003 a 2006, momento en el cual se produjo un crecimiento constante de la economía nacional en el que se visualizaron mejoras generales en los niveles de empleo y bajas en los niveles de pobreza e indigencia. Al tiempo que cabe tener en cuenta que estas mejoras 'si bien importantes' no representan una recuperación de los niveles previos a la década del noventa, es preciso destacar, como remarcan algunos autores, que los incrementos en el empleo y las disminuciones en las tasas de desocupación y subocupación no implican que se hayan revertido problemas estructurales como la segmentación y precarización laboral, con sus efectos sobre las condiciones de vida de los trabajadores. esto hace particularmente interesante el estudio de la situación de los jóvenes, dadas las especificidades como grupo que adquieren en el mercado de trabajo. Se utilizan los datos pertenecientes a la encuesta Permanente de Hogares del Indec disponibles de la versión continua (2003-2006), considerando el segundo semestre de cada año
Resumo:
El siguiente trabajo analizará el desarrollo de la educación técnica en Argentina desde principios del Siglo XX hasta 1955, año de la caída del segundo gobierno de Perón en manos de la autodenominada "Revolución Libertadora". Nos centraremos específicamente en el período que abarca desde 1944 (año de creación de la Comisión Nacional de Aprendizaje y Orientación Profesional) hasta 1955. Realizaremos -en un primer momento- una reconstrucción historiográfica sobre la expansión de dicha modalidad educativa hasta 1944; sobre cuáles fueron los actores involucrados y cuáles sus preocupaciones. Luego describiremos qué fue la CNAOP y cuál fue el contexto histórico del surgimiento de dicha comisión. En un segundo momento analizaremos cuál fue la relación entre la creación de la CNAOP por parte de Perón -a través de la Secretaría de Trabajo y Previsión- y la lectura política que éste hiciera sobre el periodo histórico estudiado. Para ello utilizaremos uno de los discursos más representativos -a nuestro entender- de este periodo: el discurso en la Bolsa de Comercio del 25 de agosto de 1944. Por último nos detendremos especialmente en la institución que sería la máxima expresión del circuito de educación técnica instaurado por el peronismo: la Universidad Obrera Nacional. Analizaremos cómo fue su funcionamiento -desde una dimensión normativa- y qué tipo de sujeto pedagógico se trató de configurar en dicha institución, a través de una serie de mitos y rituales fundamentados en la llamada "Doctrina Nacional Peronista". Para llevar adelante esta tarea utilizaremos como fuentes la Ley 13229 -que sancionara la creación de dicha casa de altos estudios-, el debate parlamentario en torno a la misma y la revista de la Universidad Obrera Nacional, editada entre septiembre de 1953 y agosto de 1955. Para finalizar presentaremos las conclusiones a las cuales ha arribado el presente trabajo
Resumo:
En este trabajo se discute en torno al comportamiento que ha presentado la estructura social del trabajo entre 1998 y 2006, buscando contribuir al debate sobre el cambio del régimen de empleo operado en la etapa posdevaluación. Con este objetivo, el documento examina la desigual performance que registraron los diferentes segmentos del mercado laboral, así como la invariabilidad que mostró tener la composición sectorial de la fuerza de trabajo. En este marco, se realiza una evaluación comparativa del impacto generado sobre las brechas de ingresos laborales por la heterogeneidad estructural en el mercado de trabajo. Para tal efecto, se ajustan diferentes modelos teóricos de regresión sobre el logaritmo de las remuneraciones horarias de cada año. El estudio analiza cuatro momentos clave del proceso económico argentino: 1998, 2001, 2003 y 2006
Resumo:
En los últimos años se han publicado varios estudios realizados con métodos etnográficos y sociológicos (Turkle, Urresti) que han caracterizando los usos de las nuevas tecnologías por parte de los jóvenes, tanto en la facilidad con que las adoptan como en su calidad de nativos digitales. A pesar de compartir generacionalmente la socialización en los nuevos medios, los jóvenes se diferencian en las posibilidades de producción debido al contexto particular en el cual participan. Estos novedosos usos se dan especialmente en ámbitos no escolares, quedando muchas veces por fuera de la acción y la conceptualización de la Pedagogía. Algunas de las características de estos nuevos lenguajes contrastan con las propuestas clásicas de la Pedagogía escolar y se desplazan hacia modelos que tienen en cuenta la complejidad, la autoorganización, la distribución del conocimiento y la conexión de los participantes en redes y grupos. Teniendo en cuenta estos estudios sobre los nuevos lenguajes tecnológicos de los jóvenes trataremos de identificar los desafíos y respuestas posibles que puede dar la Pedagogía. Se plantearán algunos interrogantes significativos: ¿Es posible transmitir la cultura sin el soporte en el cual esta se codificó? ¿Hay un nuevo mito construido sobre las tecnologías de la información y comunicación (Fischer)? ¿La inclusión de los nuevos medios garantiza un acceso sin segmentación? Es difícil predecir cómo las nuevas tecnologías nos pueden afectar en el futuro, lo que sí sabemos es que lo harán, así como ya lo hicieron la creación del libro y la pedagogía que lo acompañó. Para algunos autores los efectos de las tecnologías ponen en dificultades a la subjetividad puesto que tienen un carácter orgánico y demandante (Kelly, Turkle). Otros sin embargo despejan estos fantasmas. Consideraremos algunas propuestas de inmersión en los nuevos medios como la del conectivismo (Downes), que corren el eje de la adquisición hacia la organización del propio conocimiento.
Resumo:
Las relaciones de las actividades industriales en el territorio se han modificado intensamente en el curso de las últimas décadas. Estos cambios explican inicialmente las mutaciones en las estrategias espaciales de los actores. Las últimas modificaciones han debido adaptarse a la rapidez de las transformaciones de la industria que se impusieron acompañando a las clases dominantes, de los contextos económicos y políticos de la actividad industrial. La industria está sometida a dos tendencias, a menudo contradictorias: la mundialización y la regionalización. La reestructuración ha favorecido un 'macro fenómeno' geográfico, la internacionalización de la producción, facilitada por las posibilidades ofrecidas por el nuevo modelo tecnológico, en términos de segmentación técnica del proceso de producción. Actualmente, se acelera la mundialización de la producción, las empresas tienden a desarrollar sus estrategias de deslocalización y de optimización de las capacidades de inversión en función de las potencialidades de desarrollo de los diferentes mercados regionales y de las potencialidades técnicas de las diferentes regiones. El objetivo general es estudiar el espacio industrial, entendido como un sistema de sistemas a través de estructuras y subestructuras espaciales, resultado de cada momento histórico de su configuración en el medio geográfico de la ciudad de Tandil. El subespacio industrial adquiere diferentes denominaciones de acuerdo a los hechos dominantes del proceso de industrialización: 1- Subespacio industrial de la sustitución de importaciones (SISI), que está compuesto por dos momentos constitutivos, 1) recorte territorial de la industrialización y 2) recorte territorial de la promoción industrial 2- Subespacio industrial de la desindustrialización de la producción (SIDP), que se da a partir de la desconcentración industrial y la flexibilidad laboral, provocando gran cantidad de desocupados. Después del colapso del decenio de 1990, se desprende de este subespacio como una realidad en sí misma, la crisis de 2001, con espacios de solidaridad gestados desde las acciones internas del lugar, como una ruptura del modelo económico, que luego recobra su continuidad en el período de la postconvertibilidad. 3- Subespacio industrial Tecnológico-productivo (SITEP), forma parte del proceso de recuperación económica de la industria. De esta manera el subespacio industrial de la ciudad de Tandil, producto de la acumulación de tiempos, se analiza a partir de la división territorial del trabajo que es la encargada, en cada subdivisión de darle un nuevo contenido a los lugares. También se estudia la incidencia del ajuste estructural sobre la ocupación industrial y su movilidad sectorial para indagar los efectos de la globalización sobre la división territorial del trabajo y los nuevos espacios de solidaridad producidos por los circuitos creadores de trabajo. Estos circuitos creadores de trabajo que son vistos como marginales (microempresas, empresas familiares, ferias, trueque, etc.) aseguraron la subsistencia de grupos sociales que no participaban del nuevo sistema
Resumo:
Las técnicas de rehabilitación permiten la recuperación y mejora de las funciones dañadas o deterioradas y ayuda al paciente con DCA a adaptarse a su nueva situación. El avance tecnológico que se ha producido en las últimas décadas, ha impulsado la investigación en el diseño y desarrollo de nuevos modelos de rehabilitación. La tecnología de vídeo interactivo se convierte en un elemento de apoyo en estos nuevos modelos rehabilitadores. Se hace necesario desarrollar nuevos algoritmos de segmentación y seguimiento que permitan dotar de información adicional a los vídeos. En este trabajo se han implementado y evaluado dos métodos que permiten realizar la detección y el seguimiento de objetos de interés.
Resumo:
Este trabajo tiene como objetivos la monitorización en tiempo real de la actividad sísmica, tanto próxima como lejana, a partir de los datos sísmicos registrados por una estación de banda ancha, y el desarrollo de un sistema de difusión interactiva de información actualizada de terremotos, destinado al público general. Ambas fuentes de información se mostrarán a través de una Unidad de Visualización denominada “Monitor Sísmico Interactivo”. El registro de los datos sísmicos se realiza utilizando el sensor de tres componentes de la estación sísmica GUD, perteneciente a la Red Digital de Banda Ancha y transmisión digital del Instituto Geográfico Nacional, instalada en la Basílica del Valle de los Caídos, en lalocalidad de Guadarrama (Madrid). En la E.T.S.I. Topografía, Geodesia y Cartografía se ha instalado un ordenador con conexión a Internet, para la recepción y almacenamiento de los datos, y los programas Scream y Drumplot desarrollados por Guralp, necesarios para la monitorización de la señal sísmica en tiempo real. A partir de estos datos, mediante aplicaciones desarrolladas bajo programación Linux y haciendo uso de las herramientas que ofrece el software SAC (Seismic Analysis Code), se genera además un registro gráfico y una película animada de dicha segmentación para cada evento. Se ha configurado un servidor de correo y una cuenta para la recepción de dos tipos de mensajes de correo, enviados desde la sede central del Instituto Geográfico Nacional, con la información de los eventos registrados por GUD una vez revisados: - Mensajes enviados diariamente, con un listado de eventos ocurridos en los 30 últimos días. - Mensajes con la información en cuasi tiempo real de la última alerta sísmica. Se ha desarrollado el programa “saco” para la gestión del correo recibido que analiza la información sísmica, la almacena en ficheros y ejecuta sobre ellos las aplicaciones de dibujo. Estas aplicaciones han sido previamente desarrolladas bajo programación Linux y software GMT (Generic Mapping Tools), y a partir de ellas se generan automáticamente las distintas imágenes que se visualizan en el Monitor Sísmico: un mapa de sismicidad próxima en la Península Ibérica, un mapa de sismicidad lejana en el mundo, un mapa de detalle para localizar y representar la última alerta generada, los listados con la información de los eventos representados en los mapas, los registros gráficos y las películas animadas de dichos sismogramas. Monitor Sísmico Interactivo ha sido desarrollado para ofrecer además la posibilidad de interactuar con la Unidad de Visualización: se ha creado una base de datos para uso científico donde se almacenan todos los eventos registrados por GUD. Así el usuario puede realizar una petición, a través del envío de un mensaje de correo, que le permite visualizar de forma instantánea las imágenes que muestran la información de cualquier terremoto de su interés. ABSTRACT This study is aimed at real-time monitoring of both near and distant seismic activityfrom the seismic data recorded by a broadband seismic station, and the development of an interactive broadcast system of updated information of earthquakes, for the general public. Bothsources of information are displayed through a display unit called "Interactive Seismic Monitor". The seismic data recording is carried out by using the three-component sensor of the GUD seismic station, which belongs to the Digital Network Broadband and digital broadcast of the National Geographic Institute, housed in the Basilica of The Valley of the Fallen, in the town of Guadarrama (Madrid). A computer with Internet connection has been installed in E.T.S.I. Surveying, Geodesy and Cartography for receiving and storing data, together with Scream and Drumplot programs, developed by Guralp, which are necessary for monitoring the real time seismic signal. Based on the data collected, through programming applications developed under Linux system and using the software tools provided by the SAC (Seismic Analysis Code), a chart recorder and an animated gif image of the segmentation for each event are also generated. A mail server and a mail account have been configured for the receipt of two types of email messages, sent from the National Geographic Institute head office, with the information of the events recorded by GUD after being reviewed: - Messages sent daily, providing a list of events in the past 30 days. - Messages containing information on near real-time seismic of the last seismic alert. A program called "saco" has also been developed for handling mail received that analyzes the seismic data, which stores it in files and runs drawing applications on them. These applications have been previously developed under Linux system and software programming GMT (Generic Mapping Tools), and from them different images that are displayed on the Seismic Monitor are automatically generated: a near seismicity Iberian peninsula map, a distant seismicity world map, a detailed map to locate and represent the last seismic alert generated, the lists with the information of the events depicted in the maps,together with the charts and the animated gif image of such seismograms. Interactive Seismic Monitor has been developed to offer any user the possibility of interacting with the display unit: a database has been created for scientific use which stores all the events recorded by GUD. Thus, any user could make a request, by sending an e-mail that allows them to view instantly all the images showing the information of any earthquake of interest on the display unit.
Resumo:
Este Proyecto Fin de Carrera trata sobre el reconocimiento e identificación de caracteres de matrículas de automóviles. Este tipo de sistemas de reconocimiento también se los conoce mundialmente como sistemas ANPR ("Automatic Number Plate Recognition") o LPR ("License Plate Recognition"). La gran cantidad de vehículos y logística que se mueve cada segundo por todo el planeta, hace necesaria su registro para su tratamiento y control. Por ello, es necesario implementar un sistema que pueda identificar correctamente estos recursos, para su posterior procesado, construyendo así una herramienta útil, ágil y dinámica. El presente trabajo ha sido estructurado en varias partes. La primera de ellas nos muestra los objetivos y las motivaciones que se persiguen con la realización de este proyecto. En la segunda, se abordan y desarrollan todos los diferentes procesos teóricos y técnicos, así como matemáticos, que forman un sistema ANPR común, con el fin de implementar una aplicación práctica que pueda demostrar la utilidad de estos en cualquier situación. En la tercera, se desarrolla esa parte práctica en la que se apoya la base teórica del trabajo. En ésta se describen y desarrollan los diversos algoritmos, creados con el fin de estudiar y comprobar todo lo planteado hasta ahora, así como observar su comportamiento. Se implementan varios procesos característicos del reconocimiento de caracteres y patrones, como la detección de áreas o patrones, rotado y transformación de imágenes, procesos de detección de bordes, segmentación de caracteres y patrones, umbralización y normalización, extracción de características y patrones, redes neuronales, y finalmente el reconocimiento óptico de caracteres o comúnmente conocido como OCR. La última parte refleja los resultados obtenidos a partir del sistema de reconocimiento de caracteres implementado para el trabajo y se exponen las conclusiones extraídas a partir de éste. Finalmente se plantean las líneas futuras de mejora, desarrollo e investigación, para poder realizar un sistema más eficiente y global. This Thesis deals about license plate characters recognition and identification. These kinds of systems are also known worldwide as ANPR systems ("Automatic Number Plate Recognition") or LPR ("License Plate Recognition"). The great number of vehicles and logistics moving every second all over the world, requires a registration for treatment and control. Thereby, it’s therefore necessary to implement a system that can identify correctly these resources, for further processing, thus building a useful, flexible and dynamic tool. This work has been structured into several parts. The first one shows the objectives and motivations attained by the completion of this project. In the second part, it’s developed all the different theoretical and technical processes, forming a common ANPR system in order to implement a practical application that can demonstrate the usefulness of these ones on any situation. In the third, the practical part is developed, which is based on the theoretical work. In this one are described and developed various algorithms, created to study and verify all the questions until now suggested, and complain the behavior of these systems. Several recognition of characters and patterns characteristic processes are implemented, such as areas or patterns detection, image rotation and transformation, edge detection processes, patterns and character segmentation, thresholding and normalization, features and patterns extraction, neural networks, and finally the optical character recognition or commonly known like OCR. The last part shows the results obtained from the character recognition system implemented for this thesis and the outlines conclusions drawn from it. Finally, future lines of improvement, research and development are proposed, in order to make a more efficient and comprehensive system.
Resumo:
La planificación pre-operatoria se ha convertido en una tarea esencial en cirugías y terapias de marcada complejidad, especialmente aquellas relacionadas con órgano blando. Un ejemplo donde la planificación preoperatoria tiene gran interés es la cirugía hepática. Dicha planificación comprende la detección e identificación precisa de las lesiones individuales y vasos así como la correcta segmentación y estimación volumétrica del hígado funcional. Este proceso es muy importante porque determina tanto si el paciente es un candidato adecuado para terapia quirúrgica como la definición del abordaje a seguir en el procedimiento. La radioterapia de órgano blando es un segundo ejemplo donde la planificación se requiere tanto para la radioterapia externa convencional como para la radioterapia intraoperatoria. La planificación comprende la segmentación de tumor y órganos vulnerables y la estimación de la dosimetría. La segmentación de hígado funcional y la estimación volumétrica para planificación de la cirugía se estiman habitualmente a partir de imágenes de tomografía computarizada (TC). De igual modo, en la planificación de radioterapia, los objetivos de la radiación se delinean normalmente sobre TC. Sin embargo, los avances en las tecnologías de imagen de resonancia magnética (RM) están ofreciendo progresivamente ventajas adicionales. Por ejemplo, se ha visto que el ratio de detección de metástasis hepáticas es significativamente superior en RM con contraste Gd–EOB–DTPA que en TC. Por tanto, recientes estudios han destacado la importancia de combinar la información de TC y RM para conseguir el mayor nivel posible de precisión en radioterapia y para facilitar una descripción precisa de las lesiones del hígado. Con el objetivo de mejorar la planificación preoperatoria en ambos escenarios se precisa claramente de un algoritmo de registro no rígido de imagen. Sin embargo, la gran mayoría de sistemas comerciales solo proporcionan métodos de registro rígido. Las medidas de intensidad de voxel han demostrado ser criterios de similitud de imágenes robustos, y, entre ellas, la Información Mutua (IM) es siempre la primera elegida en registros multimodales. Sin embargo, uno de los principales problemas de la IM es la ausencia de información espacial y la asunción de que las relaciones estadísticas entre las imágenes son homogéneas a lo largo de su domino completo. La hipótesis de esta tesis es que la incorporación de información espacial de órganos al proceso de registro puede mejorar la robustez y calidad del mismo, beneficiándose de la disponibilidad de las segmentaciones clínicas. En este trabajo, se propone y valida un esquema de registro multimodal no rígido 3D usando una nueva métrica llamada Información Mutua Centrada en el Órgano (Organ-Focused Mutual Information metric (OF-MI)) y se compara con la formulación clásica de la Información Mutua. Esto permite mejorar los resultados del registro en áreas problemáticas incorporando información regional al criterio de similitud, beneficiándose de la disponibilidad real de segmentaciones en protocolos estándares clínicos, y permitiendo que la dependencia estadística entre las dos modalidades de imagen difiera entre órganos o regiones. El método propuesto se ha aplicado al registro de TC y RM con contraste Gd–EOB–DTPA así como al registro de imágenes de TC y MR para planificación de radioterapia intraoperatoria rectal. Adicionalmente, se ha desarrollado un algoritmo de apoyo de segmentación 3D basado en Level-Sets para la incorporación de la información de órgano en el registro. El algoritmo de segmentación se ha diseñado específicamente para la estimación volumétrica de hígado sano funcional y ha demostrado un buen funcionamiento en un conjunto de imágenes de TC abdominales. Los resultados muestran una mejora estadísticamente significativa de OF-MI comparada con la Información Mutua clásica en las medidas de calidad de los registros; tanto con datos simulados (p<0.001) como con datos reales en registro hepático de TC y RM con contraste Gd– EOB–DTPA y en registro para planificación de radioterapia rectal usando OF-MI multi-órgano (p<0.05). Adicionalmente, OF-MI presenta resultados más estables con menor dispersión que la Información Mutua y un comportamiento más robusto con respecto a cambios en la relación señal-ruido y a la variación de parámetros. La métrica OF-MI propuesta en esta tesis presenta siempre igual o mayor precisión que la clásica Información Mutua y consecuentemente puede ser una muy buena alternativa en aplicaciones donde la robustez del método y la facilidad en la elección de parámetros sean particularmente importantes. Abstract Pre-operative planning has become an essential task in complex surgeries and therapies, especially for those affecting soft tissue. One example where soft tissue preoperative planning is of high interest is liver surgery. It involves the accurate detection and identification of individual liver lesions and vessels as well as the proper functional liver segmentation and volume estimation. This process is very important because it determines whether the patient is a suitable candidate for surgical therapy and the type of procedure. Soft tissue radiation therapy is a second example where planning is required for both conventional external and intraoperative radiotherapy. It involves the segmentation of the tumor target and vulnerable organs and the estimation of the planned dose. Functional liver segmentations and volume estimations for surgery planning are commonly estimated from computed tomography (CT) images. Similarly, in radiation therapy planning, targets to be irradiated and healthy and vulnerable tissues to be protected from irradiation are commonly delineated on CT scans. However, developments in magnetic resonance imaging (MRI) technology are progressively offering advantages. For instance, the hepatic metastasis detection rate has been found to be significantly higher in Gd–EOB–DTPAenhanced MRI than in CT. Therefore, recent studies highlight the importance of combining the information from CT and MRI to achieve the highest level of accuracy in radiotherapy and to facilitate accurate liver lesion description. In order to improve those two soft tissue pre operative planning scenarios, an accurate nonrigid image registration algorithm is clearly required. However, the vast majority of commercial systems only provide rigid registration. Voxel intensity measures have been shown to be robust measures of image similarity, and among them, Mutual Information (MI) is always the first candidate in multimodal registrations. However, one of the main drawbacks of Mutual Information is the absence of spatial information and the assumption that statistical relationships between images are the same over the whole domain of the image. The hypothesis of the present thesis is that incorporating spatial organ information into the registration process may improve the registration robustness and quality, taking advantage of the clinical segmentations availability. In this work, a multimodal nonrigid 3D registration framework using a new Organ- Focused Mutual Information metric (OF-MI) is proposed, validated and compared to the classical formulation of the Mutual Information (MI). It allows improving registration results in problematic areas by adding regional information into the similitude criterion taking advantage of actual segmentations availability in standard clinical protocols and allowing the statistical dependence between the two modalities differ among organs or regions. The proposed method is applied to CT and T1 weighted delayed Gd–EOB–DTPA-enhanced MRI registration as well as to register CT and MRI images in rectal intraoperative radiotherapy planning. Additionally, a 3D support segmentation algorithm based on Level-Sets has been developed for the incorporation of the organ information into the registration. The segmentation algorithm has been specifically designed for the healthy and functional liver volume estimation demonstrating good performance in a set of abdominal CT studies. Results show a statistical significant improvement of registration quality measures with OF-MI compared to MI with both simulated data (p<0.001) and real data in liver applications registering CT and Gd–EOB–DTPA-enhanced MRI and in registration for rectal radiotherapy planning using multi-organ OF-MI (p<0.05). Additionally, OF-MI presents more stable results with smaller dispersion than MI and a more robust behavior with respect to SNR changes and parameters variation. The proposed OF-MI always presents equal or better accuracy than the classical MI and consequently can be a very convenient alternative within applications where the robustness of the method and the facility to choose the parameters are particularly important.
Resumo:
Métrica de calidad de video de alta definición construida a partir de ratios de referencia completa. La medida de calidad de video, en inglés Visual Quality Assessment (VQA), es uno de los mayores retos por solucionar en el entorno multimedia. La calidad de vídeo tiene un impacto altísimo en la percepción del usuario final (consumidor) de los servicios sustentados en la provisión de contenidos multimedia y, por tanto, factor clave en la valoración del nuevo paradigma denominado Calidad de la Experiencia, en inglés Quality of Experience (QoE). Los modelos de medida de calidad de vídeo se pueden agrupar en varias ramas según la base técnica que sustenta el sistema de medida, destacando en importancia los que emplean modelos psicovisuales orientados a reproducir las características del sistema visual humano, en inglés Human Visual System, del que toman sus siglas HVS, y los que, por el contrario, optan por una aproximación ingenieril en la que el cálculo de calidad está basado en la extracción de parámetros intrínsecos de la imagen y su comparación. A pesar de los avances recogidos en este campo en los últimos años, la investigación en métricas de calidad de vídeo, tanto en presencia de referencia (los modelos denominados de referencia completa), como en presencia de parte de ella (modelos de referencia reducida) e incluso los que trabajan en ausencia de la misma (denominados sin referencia), tiene un amplio camino de mejora y objetivos por alcanzar. Dentro de ellos, la medida de señales de alta definición, especialmente las utilizadas en las primeras etapas de la cadena de valor que son de muy alta calidad, son de especial interés por su influencia en la calidad final del servicio y no existen modelos fiables de medida en la actualidad. Esta tesis doctoral presenta un modelo de medida de calidad de referencia completa que hemos llamado PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), basado en la ponderación de cuatro ratios de calidad calculados a partir de características intrínsecas de la imagen. Son: El Ratio de Fidelidad, calculado mediante el gradiente morfológico o gradiente de Beucher. El Ratio de Similitud Visual, calculado mediante los puntos visualmente significativos de la imagen a través de filtrados locales de contraste. El Ratio de Nitidez, que procede de la extracción del estadístico de textura de Haralick contraste. El Ratio de Complejidad, obtenido de la definición de homogeneidad del conjunto de estadísticos de textura de Haralick PARMENIA presenta como novedad la utilización de la morfología matemática y estadísticos de Haralick como base de una métrica de medida de calidad, pues esas técnicas han estado tradicionalmente más ligadas a la teledetección y la segmentación de objetos. Además, la aproximación de la métrica como un conjunto ponderado de ratios es igualmente novedosa debido a que se alimenta de modelos de similitud estructural y otros más clásicos, basados en la perceptibilidad del error generado por la degradación de la señal asociada a la compresión. PARMENIA presenta resultados con una altísima correlación con las valoraciones MOS procedentes de las pruebas subjetivas a usuarios que se han realizado para la validación de la misma. El corpus de trabajo seleccionado procede de conjuntos de secuencias validados internacionalmente, de modo que los resultados aportados sean de la máxima calidad y el máximo rigor posible. La metodología de trabajo seguida ha consistido en la generación de un conjunto de secuencias de prueba de distintas calidades a través de la codificación con distintos escalones de cuantificación, la obtención de las valoraciones subjetivas de las mismas a través de pruebas subjetivas de calidad (basadas en la recomendación de la Unión Internacional de Telecomunicaciones BT.500), y la validación mediante el cálculo de la correlación de PARMENIA con estos valores subjetivos, cuantificada a través del coeficiente de correlación de Pearson. Una vez realizada la validación de los ratios y optimizada su influencia en la medida final y su alta correlación con la percepción, se ha realizado una segunda revisión sobre secuencias del hdtv test dataset 1 del Grupo de Expertos de Calidad de Vídeo (VQEG, Video Quality Expert Group) mostrando los resultados obtenidos sus claras ventajas. Abstract Visual Quality Assessment has been so far one of the most intriguing challenges on the media environment. Progressive evolution towards higher resolutions while increasing the quality needed (e.g. high definition and better image quality) aims to redefine models for quality measuring. Given the growing interest in multimedia services delivery, perceptual quality measurement has become a very active area of research. First, in this work, a classification of objective video quality metrics based on their underlying methodologies and approaches for measuring video quality has been introduced to sum up the state of the art. Then, this doctoral thesis describes an enhanced solution for full reference objective quality measurement based on mathematical morphology, texture features and visual similarity information that provides a normalized metric that we have called PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), with a high correlated MOS score. The PARMENIA metric is based on the pooling of different quality ratios that are obtained from three different approaches: Beucher’s gradient, local contrast filtering, and contrast and homogeneity Haralick’s texture features. The metric performance is excellent, and improves the current state of the art by providing a wide dynamic range that make easier to discriminate between very close quality coded sequences, especially for very high bit rates whose quality, currently, is transparent for quality metrics. PARMENIA introduces a degree of novelty against other working metrics: on the one hand, exploits the structural information variation to build the metric’s kernel, but complements the measure with texture information and a ratio of visual meaningful points that is closer to typical error sensitivity based approaches. We would like to point out that PARMENIA approach is the only metric built upon full reference ratios, and using mathematical morphology and texture features (typically used in segmentation) for quality assessment. On the other hand, it gets results with a wide dynamic range that allows measuring the quality of high definition sequences from bit rates of hundreds of Megabits (Mbps) down to typical distribution rates (5-6 Mbps), even streaming rates (1- 2 Mbps). Thus, a direct correlation between PARMENIA and MOS scores are easily constructed. PARMENIA may further enhance the number of available choices in objective quality measurement, especially for very high quality HD materials. All this results come from validation that has been achieved through internationally validated datasets on which subjective tests based on ITU-T BT.500 methodology have been carried out. Pearson correlation coefficient has been calculated to verify the accuracy of PARMENIA and its reliability.
Resumo:
Esta Tesis Doctoral evalúa empíricamente la calidad del servicio en la línea de atraque de las terminales portuarias de contenedores. La metodología propuesta utiliza indicadores de calidad y se basa en el concepto de la segmentación de servicio. Para ello se desarrolla la teoría del Control Estadístico de Procesos (CEP) y se utilizan los gráficos de control para clasificar el servicio en las terminales de contenedores. El propósito de la Tesis es proporcionar una metodología basada en el Control Estadístico de Procesos (CEP) para evaluar la calidad del servicio y detectar las escalas de un servicio regular de línea que se encuentran fuera de control. Por tanto, la metodología se puede utilizar para detectar eventos que son indicativos de cambio real del proceso en la línea de atraque. Esta detección puede ser compleja pues las características de los procesos en terminales de contenedores son variables. La metodología proporciona mediante los gráficos de control criterios estadísticamente objetivos de cambio. Cuando el cambio es detectado y considerado bueno sus causas deben ser identificadas y posiblemente convertirse en la nueva forma de trabajar, cuando el cambio es negativo, entonces sus causas deberían ser identificadas y eliminadas. La Tesis Doctoral está organizado de la siguiente manera: La primera parte es la introducción, e incluye los capítulos 1 al 4, la segunda parte presenta el Estado del Arte (capítulo 5) y algunos de los estudios que han inspirado esta investigación, la tercera parte se centra en la metodología utilizada (capítulo 6) y su aplicación sobre un caso de estudio (capítulo 7). Finalmente, en la cuarta parte se presentan las conclusiones y se proponen algunas de las nuevas líneas de investigación que quedan abiertas (capítulo 8). This Thesis empirically evaluates the quality of service in the berthing face of container terminals. The methodology proposed is focused on quality of service indicators and is based on the concept of service segmentation. The Statistical Process Control (SPC) theory and the control charts are used to classify container terminal service. The aim of this Thesis is to provide a methodology based on Statistical Process Control that can evaluate the quality of service and also can detect scales of shipping liner service that are out of control. Therefore, the methodology can be used to detect events that are indicative of real change in the berthing process of container vessels. The methodology proposed allows simple detection of events that are indicative of actual process change in container terminals. This detection is complex because the characteristics of the processes are variable in the container terminals; the control chart provides statistically objective criteria of change. When change is detected and considered good its cause should be identified and possibly become the new way of working, where the change is bad then its cause should be identified and eliminated. This Thesis is organized as follows: The first part is the introduction (includes Chapters 1 to 4), the second part presents the State of the Art (Chapter 5) and some of the studies that have inspired this research. The third part focuses on the methodology used (Chapter 6) and its application to a case study (Chapter 7). Finally, Part 4 presents the conclusions and suggests future research (Chapter 8).
Resumo:
La microestructura (en el rango 0.1?100 ?m) tiene un importante impacto en el procesado y propiedades físico-químicas y organolépticas de los alimentos, tal y como se refleja en la propuesta del proyecto europeo INSIDEFOOD (Integrated sensing and imaging devices for designing, monitoring and controlling microstructure of foods) que utiliza matrices alimentarias artificiales a base de geles y espumas como modelos estandarizados para el estudio de la microestructura. Concretamente se ha trabajado con espumas y geles azucarados (a base de fructosa), espumas no azucaradas (0% fructosa, a base de agarosa), como símiles de alimentos de elevada porosidad y geles de gelatina comúnmente utilizados como símiles de productos cárnicos. El objetivo de este trabajo es el estudio no invasivo de la microestructura de estos geles y espumas mediante Resonancia Magnética Nuclear (NMR): tanto tomografía (MRI), como relaxometría 2D, así como la implementación de herramientas de análisis de imagen, empleando el entorno de Matlab®: segmentación, filtros morfológicos y análisis de textura. Este procedimiento permite evaluar la distribución y disponibilidad del agua, así como distribución y tamaño de poros, entre otros parámetros de interés.
Resumo:
El vídeo quirúrgico es la principal fuente de información intraoperatoria para el seguimiento de la intervención quirúrgica. Actualmente, su uso como medio de análisis no se halla implantado. Este trabajo presenta su utilidad con casos de uso reales que explotan la información presente en los vídeos a través del procesamiento de los vídeos. Los algoritmos desarrollados permiten la segmentación y seguimiento de los elementos de la escena, la reconstrucción y la localización espacial de los trócares. Se presenta a modo de ejemplos un entorno de formación y un sistema de navegación quirúrgica que explotan la información presente en los vídeos captados por el endoscopio.
Resumo:
La medicina ha evolucionado de forma que las imágenes digitales tienen un papel de gran relevancia para llevar a cabo el diagnóstico de enfermedades. Son muchos y de diversa naturaleza los problemas que pueden presentar el aparato fonador. Un paso previo para la caracterización de imágenes digitales de la laringe es la segmentación de las cuerdas vocales. Hasta el momento se han desarrollado algoritmos que permiten la segmentación de la glotis. El presente proyecto pretende avanzar un paso más en el estudio, procurando asimismo la segmentación de las cuerdas vocales. Para ello, es necesario aprovechar la información de color que ofrecen las imágenes, pues es lo que va a determinar la diferencia entre una región y otra de la imagen. En este proyecto se ha desarrollado un novedoso método de segmentación de imágenes en color estroboscópicas de la laringe basado en el crecimiento de regiones a partir de píxeles-semilla. Debido a los problemas que presentan las imágenes obtenidas por la técnica de la estroboscopia, para conseguir óptimos resultados de la segmentación es necesario someter a las imágenes a un preprocesado, que consiste en la eliminación de altos brillos y aplicación de un filtro de difusión anisotrópica. Tras el preprocesado, comienza el crecimiento de la región a partir de unas semillas que se obtienen previamente. La condición de inclusión de un píxel en la región se basa en un parámetro de tolerancia que se determina de forma adaptativa. Este parámetro comienza teniendo un valor muy bajo y va aumentando de forma recursiva hasta alcanzar una condición de parada. Esta condición se basa en el análisis de la distribución estadística de los píxeles dentro de la región que va creciendo. La última fase del proyecto consiste en la realización de las pruebas necesarias para verificar el funcionamiento del sistema diseñado, obteniéndose buenos resultados en la segmentación de la glotis y resultados esperanzadores para seguir mejorando el sistema para la segmentación de las cuerdas vocales. ABSTRACT Medicine has evolved so that digital images have a very important role to perform disease diagnosis. There are wide variety of problems that can present the vocal apparatus. A preliminary step for characterization of digital images of the larynx is the segmentation of the vocal folds. To date, some algorithms that allow the segmentation of the glottis have been developed. This project aims to go one step further in the study, also seeking the segmentation of the vocal folds. To do this, we must use the color information offered by images, since this is what will determine the difference between different regions in a picture. In this project a novel method of larynx color images segmentation based on region growing from a pixel seed is developed. Due to the problems of the images obtained by the technique of stroboscopy, to achieve optimal results of the segmentation is necessary a preprocessing of the images, which involves the removal of high brightness and applying an anisotropic diffusion filter. After this preprocessing, the growth of the region from previously obtained seeds starts. The condition for inclusion of a pixel in the region is based on a tolerance parameter, which is adaptively determined. It initially has a low value and this is recursively increased until a stop condition is reached. This condition is based on the analysis of the statistical distribution of the pixels within the grown region. The last phase of the project involves the necessary tests to verify the proper working of the designed system, obtaining very good results in the segmentation of the glottis and encouraging results to keep improving the system for the segmentation of the vocal folds.
Resumo:
En los últimos años, estamos siendo testigos de la alta implantación en la sociedad de dispositivos de comunicación. Lo que hace años estaba reservado a un público reducido, con claras necesidades en comunicación, se ha trasladado al público general, dado la amplia variedad de servicios que sobre los nuevos medios de comunicación se han desarrollado. De hecho, el mayor tráfico de datos en la actualidad no se produce al hilo de necesidades de máxima importancia, sino como producto de nuevos hábitos cotidianos. En este contexto de renovación tecnológica constante en busca de la eficiencia, las antenas reflectoras reflectarray (o, simplemente, los reflectarrays, RAs, [1]) se presentan como una opción competitiva contra los reflectores parabólicos metálicos. En su versión más simple, una antena reflectarray se trata de una estructura compuesta de un elemento alimentador radiante, como puede ser una bocina, y de una superficie plana, consistente en multitud de elementos individuales dispuestos en una rejilla periódica. Sobre esta superficie plana, los frentes de onda provenientes del alimentador son reflejados formando frentes de ondas planas, de una manera análoga a como lo hace un reflector parabólico. A partir de la configuración inicial, y centrándose en el principio de funcionamiento, se ha ido modificando el tipo de elemento RA empleado, consiguiendo RA cada vez más operativos. Es, sobre todo, con el nacimiento de la tecnología impresa cuando las antenas RAs vuelven a cobrar interés. Aunque el uso de tecnología impresa supuso un gran impulso en los RAs, también abrió otros desafíos en lo que al diseño de ellos se refiere. Desde el punto de vista del análisis, es común suponer que el elemento RA se encuentra en un ambiente infinitamente periódico, de forma que se puedan aplicar las condiciones de contorno de Floquet (suposición de periodicidad local). Desde un punto de vista funcional, en general, los elementos RA de tecnología impresa presentan un ancho de banda reducido, que condiciona el ancho de banda del RA completo. Entre las soluciones aportadas, es comúnmente aceptado que las estructuras multicapa, con resonadores a distintas frecuencias cercanas, pueden mitigar en parte el problema del ancho de banda. Por ello, en la actualidad, los elementos RA más comunes están compuestos por varios elementos resonadores, cuyas dimensiones constituyen los parámetros de diseño libres. Es decir, en función de dichas dimensiones, el elemento RA tendrá un valor del coeficiente de reflexión u otro. Esto supone un aumento en la complejidad a la hora de analizar dicho elemento por los métodos numéricos conocidos, como el Método de los Momentos (MoM) o el Método de Elementos Finitos (FEM, por las siglas de su traducción inglesa Finite Element Method), que redundará en un mayor tiempo de cómputo en el análisis. Por otra parte, como se muestra en la Figura R.1, el diseño de un RA conlleva analizar multitud de veces el elemento RA considerado. En efecto, se trata de un método de diseño indirecto, en donde las dimensiones de los parámetros geométricos libres de cada elemento RA se obtienen de manera iterativa usando un optimizador. Se ve claro, entonces, que el aumento en tiempo de análisis del elemento RA repercute en gran medida en el tiempo de diseño total, por lo que una reducción en el tiempo de análisis del elemento RA podría ser muy beneficioso. Uno de los métodos para conseguir reducir el tiempo de diseño de un RA, que se puede encontrar en la literatura, es emplear un modelo de la respuesta del elemento RA en función de los parámetros libres. La cuestión que aflora es cuál es la herramienta idónea para modelar la respuesta del elemento RA. En los últimos años se han propuestos varias formas. La primera de ellas consistía en encontrar un equivalente circuital. Esta aproximación está bien extendida para otras estructuras EM, donde los equivalentes circuitales con componentes LC ofrecen respuestas muy precisas con respecto a las que ofrecen las estructuras EM en sí. A raíz del carácter no lineal de la respuesta, hay autores que han propuesto para el diseño de RAs la creación de tablas de datos (look up tables) que, para cada parámetro de diseño de interés (suele ser el desfase introducido por el elemento) guardan las dimensiones de los parámetros geométricos libres asociados. De esta forma, consiguen un diseño rápido, pero poco versátil, ya que la tabla ofrece un único valor para cada entrada, por lo que es difícil jugar con más de una restricción de diseño. Más recientemente, se está comenzando a utilizar, para la caracterización de estructuras EM, unos sistemas llamados Redes Neuronales Artificiales (ANN, por sus siglas en inglés Artificial Neural Network). El uso fundamental de los mismos en EM es el de servir como interpoladores no lineales. Se trata de sistemas que admiten múltiples parámetros de entradas y múltiples parámetros de salida. Antes de poder ser usados como interpoladores, deben ser entrenados. Para ello, necesitan de un conjunto de pares de los parámetros de entrada a la red, con los valores de las salidas asociados. Algunos usos en electromagnetismo de las ANNs que se pueden encontrar en la literatura son: el modelado de filtros; la caracterización de dispositivos activos; la obtención de modelos que aceleran los algoritmos que calculan la dirección de llegada en antenas de radar; o el diseño de arrays de antenas. Volviendo al modelado de elementos RA, en este trabajo haremos uso de las ANNs para caracterizar distintos tipos de elementos RA. A lo largo de estos últimos años, se ha considerado esta posibilidad como una de las más prometedoras. De hecho, podemos encontrar algunas pocas referencias al respecto, varias de las cuales han sido publicadas por distintos autores durante la elaboración del trabajo recogido en esta Tesis. Como veremos, los resultados que vamos a presentar aportan novedades con respecto a la citada literatura. Particularmente, en este trabajo se ha realizado la caracterización de un elemento RA de tres capas, considerando hasta 9 parámetros de entrada (seis parámetros geométricos, las dos coordenadas del ángulo de incidencia, y la frecuencia) y 4 parámetros de salida complejos (los coeficientes de reflexión para dos polarizaciones ortogonales lineales). Haciendo uso de esta caracterización en el flujo de diseño de RAs, se ha realizado el análisis y el diseño de varias antenas RA con restricciones de diseño de comunicaciones espaciales. Los resultados fueron exitosos comparados con los resultados obtenidos por los métodos tradicionales. De manera puntualizada, podríamos resumir las aportaciones que se verán en esta Tesis como: Caracterización de distintos elementos RA mediante ANNs basadas en el Perceptrón Multicapa (MLP). En concreto, se ha realizado con éxito la caracterización de un elemento RA de parche acoplado a línea de retardo a través de apertura; la caracterización de un elemento RA basado en dipolos sobre substratos de distintas características eléctricas en el rango de centenas de GHz; y la caracterización de un elemento RA basado en 3 parches apilados, con 9 parámetros libres en su caracterización. Uso del FEM, de la técnica de segmentación en subdominios y de la generación y manipulación de accesos MAM para el análisis y la caracterización de elementos RA mediante ANNs. Desarrollo de una nueva técnica de obtención de muestras, para el caso de estructura multicapa cuyo estudio EM se pueda dividir en dos pasos: estudio de cada capa y conexión de capas. De esta forma, se ha podido reducir en varios órdenes de magnitud el tiempo necesario para obtener el set de entrenamiento de las ANNs. Valoración del uso de distintos métodos de entrenamiento de segundo orden para el entrenamiento de redes ANN MLP, en la caracterización de elementos RA. Desarrollo de una nueva técnica para realizar el entrenamiento de redes ANNs basadas en el MLP, denominada como Entrenamiento en Cascada. Dado el alto número de parámetros a caracterizar, era difícil conseguir una red que, partiendo del número de entradas deseado, proporcionara convergencia con precisión suficiente. Con el algoritmo propuesto y probado en esta Tesis, se consiguió entrenar redes de 8 parámetros de entradas (el noveno parámetro, la frecuencia, correspondía a redes diferentes para cada valor) con gran precisión. Desarrollo de un método adaptativo para mejorar la precisión de las ANNs en el análisis de antenas RA. Este método, basado en re-entrenar las ANNs para sub rangos de los parámetros de entrada en donde el error es mayor, aporta una precisión mayor, al mejorar el entrenamiento global de las ANNs, en un tiempo aceptable, ya que solo se incluyen nuevas muestras en torno a los valores donde el error es mayor. Análisis de antena RA completa, con cobertura según especificaciones de la misión AMAZONAS (haz conformado, banda Ku), usando las caracterización el elemento RA obtenida mediante ANNs. La mejora en tiempo de análisis conseguida con respecto al uso del MoM está en un factor 102, con precisiones comparables. Diseño de antenas RA completas, con especificaciones de haz pincel y EuTELSAT (banda Ku). De nuevo, la mejora en tiempo de diseño conseguida están en torno a 102. De todos los puntos anteriores, son de destacar los dos últimos, que forman el objetivo principal de esta Tesis. Esto es, el uso de modelos rápidos de elementos RA mediante ANNs para el análisis y el diseño de antenas para comunicaciones por satélite.