981 resultados para MP3 (Norma de codificación perceptual)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

TFC sobre normalització del volum d'arxius MP3, emmarcat dins d'un projecte més ampli que inclou la lectura d'arxius MP3, la modificació per a implementar-ne el guany i el desenvolupament d'una interfície d'usuari que permeti aplicar la normalització a fitxers MP3. La part que s'ha elaborat és la fase intermèdia, consistent en el càlcul del guany de volum que caldria aplicar a un arxiu de so per a aconseguir normalitzar-ne el volum.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aquest projecte es pot dividir en tres parts: una primera part d'extracció dels components freqüencials de les trames d'arxius MP3, una segona part d'anàlisi i càlcul d'un factor de normalització a partir de les dades dels components freqüencials de diversos arxius MP3, i una última part amb la modificació correcta dels guanys de les trames dels arxius MP3 a partir del factor de normalització generat en la part anterior. En aquest treball de final de carrera s'implementen la primera i la tercera de les parts descrites anteriorment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'estàndard MPEG-1 Layer III va ser creat fa poc més de 10 anys i en aquest curt espai de temps ha revolucionat el fins aleshores estable món de la música. El fet de poder comprimir tota una cançó en uns pocs 'megues' (3 o 4) sense una pèrdua apreciable de qualitat i la proliferació d'ordinadors connectats a Internet va fer que el tràfic de fitxers en aquest format col·lapsés més d'un servidor. Per això, no és estrany que apareguessin autèntiques col·leccions de fitxers musicals en format MP3 procedents de les fonts més variades. Aquest fet (la diversitat de les fonts) i la variabilitat entre els diferents codificadors fa que el volum del so d'aquests fitxers disti molt de ser semblant. I això és precisament el que procura aconseguir aquest projecte: fer que tota col·lecció de fitxers MP3 soni igual de fort.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el fin de analizar la caracterización del proceso de evolución de los sistemas técnicos de reproducción musical se han planteado dos vías principales de análisis: en primer lugar, el estudio de las características técnicas de cuatro sistemas de reproducción que se han considerado representativos de dicho avance (sistemas basados en disco de vinilo, casete compacto, disco compacto y formato de codificación perceptual) y, en segundo lugar, el funcionamiento de dichos sistemas dentro del concepto que se ha denominado como cadena de transmisión de información de tipo musical. A través de la evaluación del grado de evolución de cada sistema y de su posterior comparación se procederá a realizar dicha caracterización. Para ello se tendrán en cuenta factores objetivos como, por ejemplo, la calidad de la señal de audio pero también cualitativos como, por ejemplo, la portabilidad que pueda proporcionar un tipo de sistema u otro. Por otra parte, se plantea un segundo objetivo que es actualizar la definición de reproductor, si así se desprende de los análisis, con la aparición de reproductores basados en codificación perceptual. ABSTRACT. In order to analyze the characterization of the process of evolution of technical systems of music playback considered two main ways of analysis: first, the study of the technical characteristics of four playback systems that have been considered representative of the advance (based on vinyl, compact cassette, compact disc and perceptual formats coding systems) and, second, the operation of these systems within the concept that has been called chain of information transmission of music. Through the evaluation of the degree of development of each system and its subsequent comparison will proceed to make such characterization. For this objective kept in mind factors such as the quality of the audio signal but also qualitative, for example, portability that can provide a particular device type will be considered. Moreover, a second objective is to update the definition of the player, if it is apparent from the analysis, with the appearance of players based on perceptual coding arises.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El impulso de este trabajo se efectúa a base de un proceso de investigación y de experiencias personales en el trámite de contrataciones sometidas a la norma de excepción contemplada en el artículo seis, letra a) de la Codificación de la Ley de Contratación Pública, pues he podido establecer que dentro de una misma Institución del Estado, a quienes es aplicable las disposiciones de la mencionada Ley, no existe uniformidad de criterios para procesar las contrataciones bajo el régimen de excepción, ya que se establecen procedimientos, términos, condiciones y plazos, que difieren unos de otros, no obstante que se trata de procesos similares respecto de la ejecución de una obra o prestación de servicio vía exoneración de procedimientos precontractuales bajo declaratoria de emergencia. El objetivo principal del análisis, evaluación, conclusiones y recomendación, en el que se incluyen ciertas reformas principalmente al Art. 5to. del Reglamento Sustitutivo del Reglamento General de la Ley de Contratación Pública, a los que se llega en el desarrollo de esta Tesis, es procurar que las Entidades que conforman el Sector Público, para contratar bajo el régimen de excepción, cuenten con parámetros claros y determinados para que se uniformice el procedimiento de contratación bajo excepción, coartando la ambigüedad y la interpretación antojadiza que al momento contempla el Reglamento General a la Ley de Contratación Pública, lo que en cierta forma y a mi criterio, a dado lugar para que una determinada contratación vía emergencias, adolezca de transparencia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Soitinnus: lauluääni (sopraano), piano.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'objectiu general de la tesi és analitzar els objectius i les hipòtesis de què Pompeu Fabra (1891-1948) va partir en la codificació de la sintaxi del català i la metodologia que va fer servir. Per fer-ho s'ha identificat, buidat i analitzat la terminologia de 995 textos de Fabra, classificats segons la seva importància. Com a resultat s'ha obtingut una descripció de les concepcions fabrianes de sintaxi i proposició, de canvi sintàctic, de variació sintàctica, de codificació sintàctica i de la relació que Fabra hi estableix. Els resultats d'aquesta descripció s'han contrastat amb els d'estudis anteriors de l'obra fabriana. Finalment, s'han establert les perspectives que aquest resultats obren a nous estudis sobre les fonts de l'obra de Fabra, les seves coincidències amb altres teòrics del món i la seva influència en obres catalanes posteriors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper proposes a reflection on processes of variation and change that occurred with the portuguese prepositions a, ate, em and para, taken as a parameter for answers in a broader context, the confrontation between the norm and use and between standard and linguistic variation. We conducted the study based on a corpus composed of all occurrences of the prepositions in question removed news of the newspaper O Combate and O Estado de Sao Paulo. Whereas the main objective of the study is to present and describe the use of these particles in newspaper articles of the Imprensa Paulista, data were collected and quantified by using the statistical package GOLDVARB, and interpretation of results relied (i) assumptions regarding the process variation in the use of prepositions and prepositions replace weak, as the preposition to, for strong prepositions (para, em, até), (ii) in comparison with the grammatical rule in effect at the time, (iii) and in the search for the existence of some historical factor that justifies the selection of a preposition rather than another. Among the hypotheses, we investigate the relationship between these prepositions and whose kind of preachers they introduce supplements: the direction of motion (abstract or concrete) or transfer (material and verbal / perceptual). This theoretical perspective was the Labovian sociolinguistics (Labov, 1972, 1994), which defines the linguistic variable as a representation of two or more different ways to convey a certain information content, being necessary to define it the following criteria set exact number of variants to establish all the multiplicity of contexts in which it appears; develop a quantitative index for measuring the values of variables

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quizás el Código Morse, inventado en 1838 para su uso en la telegrafía, es uno de los primeros ejemplos de la utilización práctica de la compresión de datos [1], donde las letras más comunes del alfabeto son codificadas con códigos más cortos que las demás. A partir de 1940 y tras el desarrollo de la teoría de la información y la creación de los primeros ordenadores, la compresión de la información ha sido un reto constante y fundamental entre los campos de trabajo de investigadores de todo tipo. Cuanto mayor es nuestra comprensión sobre el significado de la información, mayor es nuestro éxito comprimiéndola. En el caso de la información multimedia, su naturaleza permite la compresión con pérdidas, alcanzando así cotas de compresión imposibles para los algoritmos sin pérdidas. Estos “recientes” algoritmos con pérdidas han estado mayoritariamente basados en transformación de la información al dominio de la frecuencia y en la eliminación de parte de la información en dicho dominio. Transformar al dominio de la frecuencia posee ventajas pero también involucra unos costes computacionales inevitables. Esta tesis presenta un nuevo algoritmo de compresión multimedia llamado “LHE” (Logarithmical Hopping Encoding) que no requiere transformación al dominio de la frecuencia, sino que trabaja en el dominio del espacio. Esto lo convierte en un algoritmo lineal de reducida complejidad computacional. Los resultados del algoritmo son prometedores, superando al estándar JPEG en calidad y velocidad. Para ello el algoritmo utiliza como base la respuesta fisiológica del ojo humano ante el estímulo luminoso. El ojo, al igual que el resto de los sentidos, responde al logaritmo de la señal de acuerdo a la ley de Weber. El algoritmo se compone de varias etapas. Una de ellas es la medición de la “Relevancia Perceptual”, una nueva métrica que nos va a permitir medir la relevancia que tiene la información en la mente del sujeto y en base a la misma, degradar en mayor o menor medida su contenido, a través de lo que he llamado “sub-muestreado elástico”. La etapa de sub-muestreado elástico constituye una nueva técnica sin precedentes en el tratamiento digital de imágenes. Permite tomar más o menos muestras en diferentes áreas de una imagen en función de su relevancia perceptual. En esta tesis se dan los primeros pasos para la elaboración de lo que puede llegar a ser un nuevo formato estándar de compresión multimedia (imagen, video y audio) libre de patentes y de alto rendimiento tanto en velocidad como en calidad. ABSTRACT The Morse code, invented in 1838 for use in telegraphy, is one of the first examples of the practical use of data compression [1], where the most common letters of the alphabet are coded shorter than the rest of codes. From 1940 and after the development of the theory of information and the creation of the first computers, compression of information has been a constant and fundamental challenge among any type of researchers. The greater our understanding of the meaning of information, the greater our success at compressing. In the case of multimedia information, its nature allows lossy compression, reaching impossible compression rates compared with lossless algorithms. These "recent" lossy algorithms have been mainly based on information transformation to frequency domain and elimination of some of the information in that domain. Transforming the frequency domain has advantages but also involves inevitable computational costs. This thesis introduces a new multimedia compression algorithm called "LHE" (logarithmical Hopping Encoding) that does not require transformation to frequency domain, but works in the space domain. This feature makes LHE a linear algorithm of reduced computational complexity. The results of the algorithm are promising, outperforming the JPEG standard in quality and speed. The basis of the algorithm is the physiological response of the human eye to the light stimulus. The eye, like other senses, responds to the logarithm of the signal according with Weber law. The algorithm consists of several stages. One is the measurement of "perceptual relevance," a new metric that will allow us to measure the relevance of information in the subject's mind and based on it; degrade accordingly their contents, through what I have called "elastic downsampling". Elastic downsampling stage is an unprecedented new technique in digital image processing. It lets take more or less samples in different areas of an image based on their perceptual relevance. This thesis introduces the first steps for the development of what may become a new standard multimedia compression format (image, video and audio) free of patents and high performance in both speed and quality.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Universidade Estadual de Campinas . Faculdade de Educação Física

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aim. The purpose of the present study was to compare the effect of different resistance training systems (Multiple-set [MS] and Pyramid [P]) on hormonal, metabolic and perceptual markers of internal load. Methods. Ten healthy men performed two resistance training sessions (MS and P) which consisted of three exercises (bench press, peck deck and decline bench press) with the same total volume of load lifted. The training sessions were performed 14 days apart and allocated in a counter-balanced order. Hormonal (plasma insulin, growth hormone [GH], testosterone and cortisol) and metabolic (blood glucose and lactate) responses were assessed before and after each exercise bout. Session rating of perceived exertion (session RPE) was taken 30-min following each bout. Results. No difference was observed for session-RPE between P and MS bouts (P>0.05). Plasma GH, cortisol and lactate increased significantly after exercise both bouts (P<0.01), but there were no significant changes between MS and P (P>0.05). Conclusion. It is concluded that the acute bout of resistance exercise following MS and P systems provide similar training strain when the total volume of load lifted is matched.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We present a review of perceptual image quality metrics and their application to still image compression. The review describes how image quality metrics can be used to guide an image compression scheme and outlines the advantages, disadvantages and limitations of a number of quality metrics. We examine a broad range of metrics ranging from simple mathematical measures to those which incorporate full perceptual models. We highlight some variation in the models for luminance adaptation and the contrast sensitivity function and discuss what appears to be a lack of a general consensus regarding the models which best describe contrast masking and error summation. We identify how the various perceptual components have been incorporated in quality metrics, and identify a number of psychophysical testing techniques that can be used to validate the metrics. We conclude by illustrating some of the issues discussed throughout the paper with a simple demonstration. (C) 1998 Elsevier Science B.V. All rights reserved.