1000 resultados para compresión de datos


Relevância:

70.00% 70.00%

Publicador:

Resumo:

Quizás el Código Morse, inventado en 1838 para su uso en la telegrafía, es uno de los primeros ejemplos de la utilización práctica de la compresión de datos [1], donde las letras más comunes del alfabeto son codificadas con códigos más cortos que las demás. A partir de 1940 y tras el desarrollo de la teoría de la información y la creación de los primeros ordenadores, la compresión de la información ha sido un reto constante y fundamental entre los campos de trabajo de investigadores de todo tipo. Cuanto mayor es nuestra comprensión sobre el significado de la información, mayor es nuestro éxito comprimiéndola. En el caso de la información multimedia, su naturaleza permite la compresión con pérdidas, alcanzando así cotas de compresión imposibles para los algoritmos sin pérdidas. Estos “recientes” algoritmos con pérdidas han estado mayoritariamente basados en transformación de la información al dominio de la frecuencia y en la eliminación de parte de la información en dicho dominio. Transformar al dominio de la frecuencia posee ventajas pero también involucra unos costes computacionales inevitables. Esta tesis presenta un nuevo algoritmo de compresión multimedia llamado “LHE” (Logarithmical Hopping Encoding) que no requiere transformación al dominio de la frecuencia, sino que trabaja en el dominio del espacio. Esto lo convierte en un algoritmo lineal de reducida complejidad computacional. Los resultados del algoritmo son prometedores, superando al estándar JPEG en calidad y velocidad. Para ello el algoritmo utiliza como base la respuesta fisiológica del ojo humano ante el estímulo luminoso. El ojo, al igual que el resto de los sentidos, responde al logaritmo de la señal de acuerdo a la ley de Weber. El algoritmo se compone de varias etapas. Una de ellas es la medición de la “Relevancia Perceptual”, una nueva métrica que nos va a permitir medir la relevancia que tiene la información en la mente del sujeto y en base a la misma, degradar en mayor o menor medida su contenido, a través de lo que he llamado “sub-muestreado elástico”. La etapa de sub-muestreado elástico constituye una nueva técnica sin precedentes en el tratamiento digital de imágenes. Permite tomar más o menos muestras en diferentes áreas de una imagen en función de su relevancia perceptual. En esta tesis se dan los primeros pasos para la elaboración de lo que puede llegar a ser un nuevo formato estándar de compresión multimedia (imagen, video y audio) libre de patentes y de alto rendimiento tanto en velocidad como en calidad. ABSTRACT The Morse code, invented in 1838 for use in telegraphy, is one of the first examples of the practical use of data compression [1], where the most common letters of the alphabet are coded shorter than the rest of codes. From 1940 and after the development of the theory of information and the creation of the first computers, compression of information has been a constant and fundamental challenge among any type of researchers. The greater our understanding of the meaning of information, the greater our success at compressing. In the case of multimedia information, its nature allows lossy compression, reaching impossible compression rates compared with lossless algorithms. These "recent" lossy algorithms have been mainly based on information transformation to frequency domain and elimination of some of the information in that domain. Transforming the frequency domain has advantages but also involves inevitable computational costs. This thesis introduces a new multimedia compression algorithm called "LHE" (logarithmical Hopping Encoding) that does not require transformation to frequency domain, but works in the space domain. This feature makes LHE a linear algorithm of reduced computational complexity. The results of the algorithm are promising, outperforming the JPEG standard in quality and speed. The basis of the algorithm is the physiological response of the human eye to the light stimulus. The eye, like other senses, responds to the logarithm of the signal according with Weber law. The algorithm consists of several stages. One is the measurement of "perceptual relevance," a new metric that will allow us to measure the relevance of information in the subject's mind and based on it; degrade accordingly their contents, through what I have called "elastic downsampling". Elastic downsampling stage is an unprecedented new technique in digital image processing. It lets take more or less samples in different areas of an image based on their perceptual relevance. This thesis introduces the first steps for the development of what may become a new standard multimedia compression format (image, video and audio) free of patents and high performance in both speed and quality.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En aquest projecte es desenvolupa una aplicació FreeRTOS per a la mota LPC1769 connectada amb un mòdul WiFly que agafa un fitxer d'Internet, el comprimeix i el desa un altre cop a Internet tot afegint les estadístiques bàsiques de temps i percentatge de compressió.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Tesis (Maestro en Ciencias de la Ingeniería con Especialidad en Telecomunicaciones) U.A.N.L.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mayoría de las reflexiones sobre estrategia invitan a interpretar el entorno como un paso necesario hacia la comprensión de la realidad que rodea la empresa. Apoyados en todo tipo de instrumentos, de herramientas y de matrices, estrategas y analistas sectoriales han podido comprender, cada vez mejor, lo que sucede más allá de los límites de la organización. Ante la necesidad de una mayor viabilidad de las empresas, el Grupo de Investigación en Perdurabilidad Empresarial de la Facultad de Administración de la Universidad del Rosario, diseñó e implementó una propuesta denominada “Análisis estructural de sectores estratégicos”. Ésta permite saber qué hay y qué está pasando al interior de las organizaciones, así como conjugar una serie de datos provenientes de diferentes frentes sectoriales (cliente, competencia, proveedores, compradores). Su resultado debe entenderse como una percepción, mas no como un diagnóstico. Con esta metodología, el grupo de investigación dirigido por Luis Fernando Restrepo Puerta, decano de la Facultad de Administración, cuenta con más de diez casos de aplicación en diferentes sectores económicos, al tiempo que participa en los programas de desarrollo social-agroindustrial en los municipios de San Bernardo y Nocaima (Cundinamarca) y en la capacitación de propietarios de MiPYMES en Maloka y en Proexport para la conformación de redes asociativas. Tradicionalmente, los análisis estratégicos toman un sector determinado como un todo y se enfocan en mirar los comportamientos de la competencia en función de las buenas prácticas (acciones indispensables para la supervivencia de las organizaciones). El grupo de investigación considera que, de esa manera, se pierde una gran cantidad de información, razón por la cual decidió mirar uno a uno los competidores del sector con indicadores propios como son: índice de erosión estratégica (deterioro), índice de erosión de la productividad y asimetrías financieras (diferencias en los resultados financieros). El análisis que se presenta consta de varias pruebas que pueden desarrollarse paralelamente, pero el estudio debe hacerse con cuidado, integrando los resultados individuales de cada uno de los componentes que se proponen y traducirlos en lo que denominan “Percepción sobre el medio ambiente de la organización”. Las cinco pruebas que creó y registró el grupo, bajo derechos de autor, están soportadas por un software de su misma autoría: Análisis de hacinamiento. Análisis estructural de las fuerzas del mercado. Levantamiento del panorama competitivo. Análisis de competidores. Análisis de rentabilidad, empleo, certificaciones y comercio exterior. En el desarrollo de este fascículo se abordarán las cuatro primeras. La propuesta cuenta con elementos cuantitativos como índices, tasas y razones, así como subjetivos e intuitivos, de tipo cualitativo y a nivel de percepción, como los estudios de convergencia estratégica, hacinamiento, supuestos sectoriales, interpretación de hechos y de datos, entre otros. Su objetivo es proporcionar medios para que la organización configure el entorno, es decir, marque la diferencia con las demás empresas y renuncie a la pretensión de adaptarse al ambiente empresarial, pues esto conduce al hacinamiento industrial.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicación. Resumen en inglés

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se analizan los procesos intermedios que conducen a la comprensión de un texto, con especial énfasis en los aspectos metacognitivos. Se proporcionan datos que muestran cómo las estrategias activas del procesamiento de textos permiten una mejora en los resultados del aprendizaje de los sujetos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES] Uno de los requisitos fundamentales en el almacenamiento y transmisión de información multimedia es el disponer de técnicas eficaces de compresión y descompresión de datos en el emisor y receptor del canal de comunicación. Para el caso particular de dispositivos móviles de última generación, los cuales transmiten a través de canales inalámbricos caracterizados por bajos anchos de banda y alta probabilidad de introducción de errores, resulta aún más evidente la necesidad de disponer de altas tasas de compresión así como de técnicas que proporcionen mayor inmunidad de la información ante el ruido. En este artículo se proponen algoritmos de post-procesamiento de bajo coste computacional que permiten, de manera eficaz, compaginar altas tasas de compresión dedeo con la obtención de imágenes de gran calidad en el receptor. Estas técnicas están basadas en el análisis previo de las secuencias dedeo a comprimir, mejorando, independientemente de las características de las mismas, los resultados obtenidos en trabajos realizados previamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la Escuela de Topografía, Catastro y Geodesia (ETCG) se ha implementado el Servicio de Datos GPS (SDG), el cual es un dominio en Internetque ofrece a los diferentes usuarios el acceso a información técnica y la posibilidad de descargar los archivos de datos generados diariamente por la estación GPS de operación continua de la ETCG. Los archivos disponibles en el SDG incluyen dos tratamientos previos a su publicación: un control de calidad al archivo rinex de observación con el programa Teqc y posteriormente la aplicación de la compresión de los tres archivos rinex (observación,navegación y meteorología) con el algoritmo de Hatanaka. Los dos procesos están totalmente automatizados y se ejecutan de forma diaria por medio de batch files. Con base en la puesta en operación del SDG, los archivos son procesados diariamente por uno de los centros de análisis de datos de SIRGAS y desde la semana 1501 GPS, los archivos de soluciones semanales generados por el DGFI de Alemania incorporan oficialmente los datos de la ETCG.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This article presents an experimental and numerical study for the mechanical characterization under uniaxial compressive loading of the adobe masonry of one of the most emblematic archaeological complex in Peru, 'Huaca de la Luna' (100-650AD). Compression tests of prisms were carried out with original material brought to the laboratory. For measuring local deformations in the tests, displacement transducers were used which were complemented by a digital image correlation system which allowed a better understanding of the failure mechanism. The tests were then numerically simulated by modelling the masonry as a continuum media. Several approaches were considered concerning the geometrical modelling, namely 2D and 3D simplified models, and 3D refined models based on a photogrammetric reconstruction. The results showed a good approximation between the numerical prediction and the experimental response in all cases. However, the 3D models with irregular geometries seem to reproduce better the cracking pattern observed in the tests.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto interdisciplinario consiste en la implementación y aplicación de una red inalámbrica sobre el manejo intensivo del medio-ambiente en cultivos ornamentales. La especie elegida para la puesta a punto de la técnica es el Lilium spp. La red inalámbrica para la transmisión de datos digitales se instalará en un ambiente de invernadero automatizado donde dispositivos inalámbricos se integrarán en una red inteligente para la transmisión de datos por radio frecuencia. Además se podrá vizualizar por Internet. Con el proyecto se pretende el estudio y caracterización del ambiente para una posterior actuación sobre el mismo. Con esto se espera dar respuesta a la influencia sobre la fisiología de la floración en un esquema de producción eficiente de cultivos ornamentales (para flor de corte y/o cultivo en maceta) en nuestra provincia de Córdoba, con la transferencia tecnológica correspondiente al sector productivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El campo de las Bio-Ciencias está en pleno desarrollo y expansión. La variedad de tecnologías disponibles y aplicaciones están generando una cantidad abrumadora de datos que necesitan de protocolos, conceptos y métodos que permitan un análisis uniforme y asequible. Otra característica distintiva de estos ámbitos es su condición multidisciplinaria, donde interactúan (y cada vez más) disciplinas como la biología, la matemática, la estadística, la informática, la inteligencia artificial, etc. por lo que cualquier esfuerzo tendiente a aumentar el nivel de comunicación y entendimiento entre las disciplinas redundará en beneficios. La Minería de Datos, concepto que aglutina una variedad de metodologías analíticas, proporciona un marco conceptual y metodológico para el abordaje del análisis de datos y señales de distintas disciplinas. Sin embargo, cada campo de aplicación presenta desafíos específicos que deben ser abordados particularmente desde la racionalización de conceptos específicos del ámbito. La multidisiplinaridad es particularmente importante en aplicaciones biomédicas y biotecnológicas, donde se modelan fenómenos biológicos y se desarrollan métodos analíticos para generar nuevas estrategias diagnósticas, predictivas a partir de los datos recogidos. En este proyecto se integrarán las experiencias y criterios de distintas disciplinas que están involucradas en el desarrollo experimental en bio-ciencias, desde la biología molecular y la bioingeniería hasta la bioinformática y la estadística. La finalidad es elaborar protocolos que permitan extraer conocimiento en problemas biotecnológicos (particularmente experimentos genómicos) que se basan en la investigación sólida de los procedimientos estadísticos / bioinformáticos relevante para el manejo de datos experimentales. EL objetivo general de este proyecto es contribuir a la instauración de un Proceso Unificado de Análisis en Biotecnología generando conocimiento que permita el desarrollo de nuevas metodologías de análisis, con especial énfasis en métodos lineales y no-lineales de clasificación / predicción. La comprensión y estandarización de los requerimientos y etapas de experimentos en bio-ciencias es imprescindible para el éxito de proyectos biotecnológicos / biomédicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto comprende el diseño, implementación, medición y evaluación de un dispositivo de comunicaciones digitales inalámbrica. Este dispositivo podrá ser utilizado como soporte de distintas aplicaciones, como automatización de viviendas, automatización de edificios inteligentes, control y seguimiento de vehículos, control y monitoreo de animales, instrumental médico y otras. La construcción de un transmisor y un receptor de datos por radiofrecuencia, en un único circuito integrado, plantea distintas etapas y para concretarlas se trazaron los siguientes objetivos: • Diseño, implementación y medición de circuitos de transmisión de datos con integrados existentes. • Estudio de las tecnologías y software disponibles para el diseño de los circuitos que constituyen el proyecto. Diseño, simulación, implementación y medición de circuitos realizados con dispositivos discretos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente proyecto comprende el diseño, simulación, construcción y puesta en funcionamiento de una red inalámbrica. La plataforma de comunicaciones desarrollada en un proyecto anterior se complementa ahora con la implementación de una red inalámbrica, lo cual va a permitir que los módulos de comunicaciones- tres o más -puedan interactuar entre sí. La realización del proyecto surge de la necesidad de contar con una red inalámbrica que permita cubrir grandes distancias y transmitir a una central los datos de los sensores. La principal característica de cada módulo de comunicaciones es que trabajan como repetidores de las demás, permitiendo comunicar a todos y tener bajo consumo. La implementación de una red inalámbrica mencionada en el párrafo anterior está comprometida como parte del Proyecto PAV2003-0076. En dicho proyecto, el equipo va a continuar con la investigación en circuitos y dispositivos de Alta Frecuencia, para ser aplicados en sistemas de telecomunicaciones.