927 resultados para test referido a un criterio


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se trata de evaluar el currículum de matemáticas en su totalidad con pruebas criteriales que relacionen directamente la producción de los niños en periodo de Educación Infantil, con un nivel de exigencia previamente establecido. Para ello se elabora y valida una prueba de evaluación criterial para los contenidos matemáticos del segundo ciclo de Educación Infantil. Se elabora y comprueba la eficacia de un programa de intervención para consolidar los contenidos de matemáticas del segundo ciclo de EI mediante una metodología multicomponencial y se analiza la eficacia del programa para la prevención de las dificultades en el aprendizaje de las matemáticas en primaria. La muestra del estudio está formada por 100 niños y niñas de edades comprendidas entre 4 y 5 años en la evaluación inicial y entre 5 y 6 años en la evaluación final, residentes en las ciudades de Valencia, Xátiva, Llosa de Ranes y Vallada. Los instrumentos aplicados en la investigación son, una prueba de evaluación criterial y una Batería de Aptitudes Diferenciales y Generales (BADyG) que permite medir una serie de factores intelectuales, diferenciar dos factores de grupo y un superfactor de inteligencia general. La BADyG está dividida en seis subtest: conceptos cuantitativos-numéricos, información, vocabulario gráfico, habilidad mental no verbal, razonamiento con figuras y rompecabezas. El proceso se inicia con la elaboración de la prueba criterial; para ello se comienza concretando los contenidos mínimos del Diseño Curricular Base del segundo ciclo de EI, recogiendo documentación, revisando proyectos curriculares de distintos colegios y confeccionando un borrador, análisis y debate grupal de profesionales y secuenciación de contenidos de EI. A continuación se precede al análisis de los ítems, la determinación de estándares y puntos de corte, la comprobación de la fiabilidad y la validación del instrumento desarrollado. Tras ello, se procede a la elaboración de un programa multicomponencial, previa recogida de información sobre la práctica matemática y las metodologías utilizadas, para que el niño adquiera conceptos y destrezas básicas. Se aplican condiciones distintas a grupos de niños distintos. Queda comprobada la eficacia de la prueba para evaluar la competencia matemática cubriéndose además una laguna por la carencia de pruebas matemáticas en el ámbito de EI. Se logra elaborar un programa multicomponencial que obtiene mejores resultados comparados con otras metodologías, aun siendo una investigación natural. Por último, los resultados de la escala de Cadieux y Boudrealt muestran que los sujetos que participaron en una de las condiciones propuestas (Arco Iris) estaban mejor preparados para afrontar con éxito la educación primaria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Determinar las formas temperamentales y propiedades más peculiares de los deficientes mentales. 48 sujetos deficientes mentales, de ambos sexos, de edades comprendidas entre 9 y 17 años, con un cociente intelectual de 50 a 90. Todos proceden de Las Palmas de Gran Canaria del Centro de Educación Especial Monte Coello. Explica las nociones de temperamento, carácter y caracterología, las principales teorías sobre el temperamento y analiza especialmente la caracterología de Le Senne. Después realiza un estudio experimental para conocer las peculiaridades caracterológicas de un grupo de deficientes mentales. Test de temperamento y carácter. Las variables de la prueba son edad, sexo y cociente intelectual y los factores del carácter de Le Senne son los que se analizan, éstos son emotividad, actividad y resonancia. El test se realizó en el centro de educación especial y los protocolos fueron entregados a los profesores, quienes los analizaron para obtener resultados más fiables. 1) El componente de actividad está presente en la mayor parte de los sujetos, en concreto en los flemáticos, coléricos, pasionales y sanguíneos, que forman en conjunto, el grupo más numeroso. 2) En cuanto a la resonancia, hay un ligero predominio de los primarios sobre los secundarios. 3) En el factor emotividad, se aprecia notablemente la diferencia existente referente al sexo, dando a las mujeres un tanto por ciento bastante más elevado que los varones. Fenómeno que se produce al contrario al analizar la actividad, la cual es muy superior en los varones. 4) Referente a la emotividad, es claramente notoria una progresiva disminución en los cocientes intelectuales, partiendo de los menores hasta los más elevados, sin embargo los sujetos pertenecientes a éstos, se nos presentan como más activos, dando también el mayor porcentaje en cuanto a resonancia. 5) Los sujetos de mayor edad aparecen con mucha más emotividad que los de menor edad. al contrario, en la resonancia, son los pequeños los que destacan. En la actividad, es donde encontramos mayor semejanza entre las distintas edades. 6) Los coléricos y flemáticos abundan más entre los varones, que por otra parte, no tiene ningún representante en la categoría de amorfos y apáticos. Mientras que en las mujeres predominan los tipos nervioso y pasional. Las teorías caracterológicas de Le Senne son el intento más sistematizado de un análisis de la estructura del carácter.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Existe una investigación previa con el título: Desarrollo de instrumentos de evaluación criterial y cualitativa para la Enseñanza General Básica, con tratamiento diferencial en cada uno de los ciclos

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Revisar, teórica y metodológicamente, los procesos técnicos de evaluación implicados en el proceso de enseñanza y aprendizaje en la EGB. Poner a disposición de la escuela un conjunto de pruebas del nivel mínimo, que aseguren una medida criterial del grado de suficiencia de los aprendizajes terminales básicos, y que sean capaces de determinar la situación del escolar en cada ciclo y área de la EGB (ciclo inicial y medio; áreas de Matemáticas, Lenguaje, Ciencias Sociales y Ciencias de la Naturaleza). Planteamiento de objetivos específicos. El colectivo de sujetos para cada prueba es superior a 150. Se estructura en 4 fases. Fase I: identificación de los sectores diferenciales de evaluación en función de las orientaciones legales; determinación y definición operacional de sectores curriculares; agrupar objetivos educativos y aplicar una estrategia a los contenidos de los programas escolares, con una perspectiva diferenciada para Lenguaje, Matemáticas, Ciencias Sociales y Ciencias Naturales. Fase II: concreción de los objetivos básicos de aprendizaje para cada sector-diferencial, selección de objetivos terminales para cada ciclo y área, creación de los cuadros de equivalencias en cada sector curricular, entre objetivos, ítems y criterio de superación. Fase III: aplicación piloto de las pruebas criteriales. Se controlan las características individuales de rendimiento escolar previo, nivel sociocultural familiar y escolaridad. Fase IV: corrección y tratamiento de la información; estimación del dominio y de la relevancia de los objetivos por los profesores. Pruebas criteriales. Cuadros, porcentajes, figuras, gráficas, homogeneidad interna, discriminación-eficacia, correlación ítem-test, desviación standard. La evaluación referida al criterio es una metodología adecuada para ayudar a los docentes en la toma de decisiones respecto a la promoción o retención del aprendizaje escolar, así como para incrementar la validez interna de cada objetivo de aprendizaje. Ofrecen un listado de objetivos de cada área y ciclo. En cuanto a la metodología empleada, se muestra con sensibilidad suficiente para diferenciar dentro de cada área y ciclo, aquellos niveles que son necesarios alcanzar para condicionar el éxito en aprendizajes ulteriores. La determinación de los sectores curriculares, como medio taxonómico de los objetivos, es necesario para afrontar la evaluación cualitativa. Las áreas que se han manifestado más heterogéneas son las Ciencias Sociales y Ciencias Naturales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen tomado de la publicaci??n

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fil: Díaz Legaspe, Justina. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fil: Díaz Legaspe, Justina. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La difusión de TV3D actual utiliza formatos como el Side-by-Side o Top-and-Bottom, en los que cada par de imágenes, correspondiente a las vistas de los ojos derecho e izquierdo, se encapsula con la mitad de la resolución espacial en una sola imagen. Estas imágenes se muestran de manera casi simultánea de forma que el ojo humano compone una imagen con profundidad que se asemeja a la visión binocular natural. Desde hace un par de años las principales plataformas de televisión han empezado a crear canales con contenido 3D. La televisión 3D (TV3D) se ha introducido en los hogares gracias a los televisores estereoscópicos. Estos televisores, que son compatibles con los formatos antes mencionados, extraen de cada imagen sus dos vistas, recuperan la resolución original y presentan cada vista alternativamente en la pantalla, generando al mismo tiempo una señal de sincronismo para las gafas activas, creando de esta forma la sensación tridimensional de las imágenes. En este PFC se pretende realizar el diseño VHDL de un cambiador de formato que genere en tiempo real la secuencia de imágenes correspondiente a los ojos derecho e izquierdo, con resolución completa, a partir de una secuencia codificada en formato tipo Top-and-Bottom y el banco de test para su prueba. Este circuito se implementará como un periférico del procesador NIOS II de Altera. El diseño podría utilizarse como parte de un sistema que permita la visualización de las actuales emisiones de televisión 3D en un televisor convencional. La tecnología de referencia que se utilizará serán las FPGAs, más concretamente la tarjeta Cyclone III FPGA Starter Kit (EP3C25 FPGA) de Altera, junto a una tarjeta de ampliación de Microtronix con entrada y salida HDMI para video y audio. Además se pretende crear la documentación necesaria para el desarrollo de futuros trabajos relacionados con la televisión 3D. ABSTRACT Current TV3D broadcasting uses formats as Side-by-Side or Top-and-Bottom, where every single pair of images, corresponding to left and right eyes views, are encapsulated with half spatial resolution in one single image. These images are almost simultaneously displayed so that the human eye forms an image with depth resembling naturally binocular vision. From a couple of years the major TV platforms have begun to create 3D content channels. 3D Television (3DTV) has been introduced in homes through stereoscopic televisions. These televisions, which are compatible with the above formats, each image is extracted from the two views, and recover the original resolution and displays alternately each view in screen, while generating a synchronization signal for active glasses, thereby creating the three-dimensional sensation of the images. The main objective in this PFC is to make the design of an exchanger VHDL format in real time to generate the image sequence corresponding to the right and left eyes, with full resolution from an encoded sequence type format Top-and-Bottom and test bench for testing. This circuit is implemented as a Altera NIOS II processor peripheral.The design could be used as part of a system enabling the display of current television broadcasts 3D on a conventional television. The reference technology that will be use are FPGAs, more specifically Cyclone III FPGA Starter Card Kit (EP3C25 FPGA) Altera, along with an expansion card Microtronix with HDMI input and output video and audio. It also aims to create documentation for the development of future works related to 3D TV.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El frente de un túnel puede colapsar si la presión aplicada sobre el es inferior a un valor limite denominado presión “critica” o “de colapso”. En este trabajo se desarrolla y presenta un mecanismo de rotura rotacional generado punto a punto para el cálculo de la presión de colapso del frente de túneles excavados en terrenos estratificados o en materiales que siguen un criterio de rotura nolineal. La solución propuesta es una solución de contorno superior en el marco del Análisis Límite y supone una generalización del mecanismo de rotura mas reciente existente en la bibliografía. La presencia de un terreno estratificado o con un criterio de rotura no-lineal implica una variabilidad espacial de las propiedades resistentes. Debido a esto, se generaliza el mecanismo desarrollado por Mollon et al. (2011b) para suelos, de tal forma que se puedan considerar valores locales del ángulo de rozamiento y de la cohesión. Además, la estratificación del terreno permite una rotura parcial del frente, por lo que se implementa esta posibilidad en el mecanismo, siendo la primera solución que emplea un mecanismo de rotura que se ajusta a la estratigrafía del terreno. Por otro lado, la presencia de un material con un criterio de rotura no-lineal exige introducir en el modelo, como variable de estudio, el estado tensional en el frente, el cual se somete al mismo proceso de optimización que las variables geométricas del mecanismo. Se emplea un modelo numérico 3D para validar las predicciones del mecanismo de Análisis Limite, demostrando que proporciona, con un esfuerzo computacional significativamente reducido, buenas predicciones de la presión critica, del tipo de rotura (global o parcial) en terrenos estratificados y de la geometría de fallo. El mecanismo validado se utiliza para realizar diferentes estudios paramétricos sobre la influencia de la estratigrafía en la presión de colapso. Igualmente, se emplea para elaborar cuadros de diseño de la presión de colapso para túneles ejecutados con tuneladora en macizos rocosos de mala calidad y para analizar la influencia en la estabilidad del frente del método constructivo. Asimismo, se lleva a cabo un estudio de fiabilidad de la estabilidad del frente de un túnel excavado en un macizo rocoso altamente fracturado. A partir de el se analiza como afectan las diferentes hipótesis acerca de los tipos de distribución y de las estructuras de correlación a los resultados de fiabilidad. Se investiga también la sensibilidad de los índices de fiabilidad a los cambios en las variables aleatorias, identificando las mas relevantes para el diseño. Por ultimo, se lleva a cabo un estudio experimental mediante un modelo de laboratorio a escala reducida. El modelo representa medio túnel, lo cual permite registrar el movimiento del material mediante una técnica de correlación de imágenes fotográficas. El ensayo se realiza con una arena seca y se controla por deformaciones mediante un pistón que simula el frente. Los resultados obtenidos se comparan con las estimaciones de la solución de Análisis Límite, obteniéndose un ajuste razonable, de acuerdo a la literatura, tanto en la geometría de rotura como en la presión de colapso. A tunnel face may collapse if the applied support pressure is lower than a limit value called the ‘critical’ or ‘collapse’ pressure. In this work, an advanced rotational failure mechanism generated ‘‘point-by-point” is developed to compute the collapse pressure for tunnel faces in layered (or stratified) grounds or in materials that follow a non-linear failure criterion. The proposed solution is an upper bound solution in the framework of limit analysis which extends the most advanced face failure mechanism in the literature. The excavation of the tunnel in a layered ground or in materials with a non-linear failure criterion may lead to a spatial variability of the strength properties. Because of this, the rotational mechanism recently proposed by Mollon et al. (2011b) for Mohr-Coulomb soils is generalized so that it can consider local values of the friction angle and of the cohesion. For layered soils, the mechanism needs to be extended to consider the possibility for partial collapse. The proposed methodology is the first solution with a partial collapse mechanism that can fit to the stratification. Similarly, the use of a nonlinear failure criterion introduces the need to introduce new parameters in the optimization problem to consider the distribution of normal stresses along the failure surface. A 3D numerical model is employed to validate the predictions of the limit analysis mechanism, demonstrating that it provides, with a significantly reduced computational effort, good predictions of critical pressure, of the type of collapse (global or partial) in layered soils, and of its geometry. The mechanism is then employed to conduct parametric studies of the influence of several geometrical and mechanical parameters on face stability of tunnels in layered soils. Similarly, the methodology has been further employed to develop simple design charts that provide the face collapse pressure of tunnels driven by TBM in low quality rock masses and to study the influence of the construction method. Finally, a reliability analysis of the stability of a tunnel face driven in a highly fractured rock mass is performed. The objective is to analyze how different assumptions about distributions types and correlation structures affect the reliability results. In addition, the sensitivity of the reliability index to changes in the random variables is studied, identifying the most relevant variables for engineering design. Finally, an experimental study is carried out using a small-scale laboratory model. The problem is modeled in half, cutting through the tunnel axis vertically, so that displacements of soil particles can be recorded by a digital image correlation technique. The tests were performed with dry sand and displacements are controlled by a piston that supports the soil. The results of the model are compared with the predictions of the Limit Analysis mechanism. A reasonable agreement, according to literature, is obtained between the shapes of the failure surfaces and between the collapse pressures observed in the model tests and computed with the analytical solution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En España existen del orden de 1,300 grandes presas, de las cuales un 20% fueron construidas antes de los años 60. El hecho de que existan actualmente una gran cantidad de presas antiguas aún en operación, ha producido un creciente interés en reevaluar su seguridad empleando herramientas nuevas o modificadas que incorporan modelos de fallo teóricos más completos, conceptos geotécnicos más complejos y nuevas técnicas de evaluación de la seguridad. Una manera muy común de abordar el análisis de estabilidad de presas de gravedad es, por ejemplo, considerar el deslizamiento a través de la interfase presa-cimiento empleando el criterio de rotura lineal de Mohr-Coulomb, en donde la cohesión y el ángulo de rozamiento son los parámetros que definen la resistencia al corte de la superficie de contacto. Sin embargo la influencia de aspectos como la presencia de planos de debilidad en el macizo rocoso de cimentación; la influencia de otros criterios de rotura para la junta y para el macizo rocoso (ej. el criterio de rotura de Hoek-Brown); las deformaciones volumétricas que ocurren durante la deformación plástica en el fallo del macizo rocoso (i.e., influencia de la dilatancia) no son usualmente consideradas durante el diseño original de la presa. En este contexto, en la presente tesis doctoral se propone una metodología analítica para el análisis de la estabilidad al deslizamiento de presas de hormigón, considerando un mecanismo de fallo en la cimentación caracterizado por la presencia de una familia de discontinuidades. En particular, se considera la posibilidad de que exista una junta sub-horizontal, preexistente y persistente en el macizo rocoso de la cimentación, con una superficie potencial de fallo que se extiende a través del macizo rocoso. El coeficiente de seguridad es entonces estimado usando una combinación de las resistencias a lo largo de los planos de rotura, cuyas resistencias son evaluadas empleando los criterios de rotura no lineales de Barton y Choubey (1977) y Barton y Bandis (1990), a lo largo del plano de deslizamiento de la junta; y el criterio de rotura de Hoek y Brown (1980) en su versión generalizada (Hoek et al. 2002), a lo largo del macizo rocoso. La metodología propuesta también considera la influencia del comportamiento del macizo rocoso cuando este sigue una ley de flujo no asociada con ángulo de dilatancia constante (Hoek y Brown 1997). La nueva metodología analítica propuesta es usada para evaluar las condiciones de estabilidad empleando dos modelos: un modelo determinista y un modelo probabilista, cuyos resultados son el valor del coeficiente de seguridad y la probabilidad de fallo al deslizamiento, respectivamente. El modelo determinista, implementado en MATLAB, es validado usando soluciones numéricas calculadas mediante el método de las diferencias finitas, empleando el código FLAC 6.0. El modelo propuesto proporciona resultados que son bastante similares a aquellos calculados con FLAC; sin embargo, los costos computacionales de la formulación propuesta son significativamente menores, facilitando el análisis de sensibilidad de la influencia de los diferentes parámetros de entrada sobre la seguridad de la presa, de cuyos resultados se obtienen los parámetros que más peso tienen en la estabilidad al deslizamiento de la estructura, manifestándose además la influencia de la ley de flujo en la rotura del macizo rocoso. La probabilidad de fallo es obtenida empleando el método de fiabilidad de primer orden (First Order Reliability Method; FORM), y los resultados de FORM son posteriormente validados mediante simulaciones de Monte Carlo. Los resultados obtenidos mediante ambas metodologías demuestran que, para el caso no asociado, los valores de probabilidad de fallo se ajustan de manera satisfactoria a los obtenidos mediante las simulaciones de Monte Carlo. Los resultados del caso asociado no son tan buenos, ya que producen resultados con errores del 0.7% al 66%, en los que no obstante se obtiene una buena concordancia cuando los casos se encuentran en, o cerca de, la situación de equilibrio límite. La eficiencia computacional es la principal ventaja que ofrece el método FORM para el análisis de la estabilidad de presas de hormigón, a diferencia de las simulaciones de Monte Carlo (que requiere de al menos 4 horas por cada ejecución) FORM requiere tan solo de 1 a 3 minutos en cada ejecución. There are 1,300 large dams in Spain, 20% of which were built before 1960. The fact that there are still many old dams in operation has produced an interest of reevaluate their safety using new or updated tools that incorporate state-of-the-art failure modes, geotechnical concepts and new safety assessment techniques. For instance, for gravity dams one common design approach considers the sliding through the dam-foundation interface, using a simple linear Mohr-Coulomb failure criterion with constant friction angle and cohesion parameters. But the influence of aspects such as the persistence of joint sets in the rock mass below the dam foundation; of the influence of others failure criteria proposed for rock joint and rock masses (e.g. the Hoek-Brown criterion); or the volumetric strains that occur during plastic failure of rock masses (i.e., the influence of dilatancy) are often no considered during the original dam design. In this context, an analytical methodology is proposed herein to assess the sliding stability of concrete dams, considering an extended failure mechanism in its rock foundation, which is characterized by the presence of an inclined, and impersistent joint set. In particular, the possibility of a preexisting sub-horizontal and impersistent joint set is considered, with a potential failure surface that could extend through the rock mass; the safety factor is therefore computed using a combination of strength along the rock joint (using the nonlinear Barton and Choubey (1977) and Barton and Bandis (1990) failure criteria) and along the rock mass (using the nonlinear failure criterion of Hoek and Brown (1980) in its generalized expression from Hoek et al. (2002)). The proposed methodology also considers the influence of a non-associative flow rule that has been incorporated using a (constant) dilation angle (Hoek and Brown 1997). The newly proposed analytical methodology is used to assess the dam stability conditions, employing for this purpose the deterministic and probabilistic models, resulting in the sliding safety factor and the probability of failure respectively. The deterministic model, implemented in MATLAB, is validated using numerical solution computed with the finite difference code FLAC 6.0. The proposed deterministic model provides results that are very similar to those computed with FLAC; however, since the new formulation can be implemented in a spreadsheet, the computational cost of the proposed model is significantly smaller, hence allowing to more easily conduct parametric analyses of the influence of the different input parameters on the dam’s safety. Once the model is validated, parametric analyses are conducting using the main parameters that describe the dam’s foundation. From this study, the impact of the more influential parameters on the sliding stability analysis is obtained and the error of considering the flow rule is assessed. The probability of failure is obtained employing the First Order Reliability Method (FORM). The probabilistic model is then validated using the Monte Carlo simulation method. Results obtained using both methodologies show good agreement for cases in which the rock mass has a nonassociate flow rule. For cases with an associated flow rule errors between 0.70% and 66% are obtained, so that the better adjustments are obtained for cases with, or close to, limit equilibrium conditions. The main advantage of FORM on sliding stability analyses of gravity dams is its computational efficiency, so that Monte Carlo simulations require at least 4 hours on each execution, whereas FORM requires only 1 to 3 minutes on each execution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se va a realizar un estudio de la codificación de imágenes sobre el estándar HEVC (high-effiency video coding). El proyecto se va a centrar en el codificador híbrido, más concretamente sobre la aplicación de la transformada inversa del coseno que se realiza tanto en codificador como en el descodificador. La necesidad de codificar vídeo surge por la aparición de la secuencia de imágenes como señales digitales. El problema principal que tiene el vídeo es la cantidad de bits que aparecen al realizar la codificación. Como consecuencia del aumento de la calidad de las imágenes, se produce un crecimiento exponencial de la cantidad de información a codificar. La utilización de las transformadas al procesamiento digital de imágenes ha aumentado a lo largo de los años. La transformada inversa del coseno se ha convertido en el método más utilizado en el campo de la codificación de imágenes y video. Las ventajas de la transformada inversa del coseno permiten obtener altos índices de compresión a muy bajo coste. La teoría de las transformadas ha mejorado el procesamiento de imágenes. En la codificación por transformada, una imagen se divide en bloques y se identifica cada imagen a un conjunto de coeficientes. Esta codificación se aprovecha de las dependencias estadísticas de las imágenes para reducir la cantidad de datos. El proyecto realiza un estudio de la evolución a lo largo de los años de los distintos estándares de codificación de video. Se analiza el codificador híbrido con más profundidad así como el estándar HEVC. El objetivo final que busca este proyecto fin de carrera es la realización del núcleo de un procesador específico para la ejecución de la transformada inversa del coseno en un descodificador de vídeo compatible con el estándar HEVC. Es objetivo se logra siguiendo una serie de etapas, en las que se va añadiendo requisitos. Este sistema permite al diseñador hardware ir adquiriendo una experiencia y un conocimiento más profundo de la arquitectura final. ABSTRACT. A study about the codification of images based on the standard HEVC (high-efficiency video coding) will be developed. The project will be based on the hybrid encoder, in particular, on the application of the inverse cosine transform, which is used for the encoder as well as for the decoder. The necessity of encoding video arises because of the appearance of the sequence of images as digital signals. The main problem that video faces is the amount of bits that appear when making the codification. As a consequence of the increase of the quality of the images, an exponential growth on the quantity of information that should be encoded happens. The usage of transforms to the digital processing of images has increased along the years. The inverse cosine transform has become the most used method in the field of codification of images and video. The advantages of the inverse cosine transform allow to obtain high levels of comprehension at a very low price. The theory of the transforms has improved the processing of images. In the codification by transform, an image is divided in blocks and each image is identified to a set of coefficients. This codification takes advantage of the statistic dependence of the images to reduce the amount of data. The project develops a study of the evolution along the years of the different standards in video codification. In addition, the hybrid encoder and the standard HEVC are analyzed more in depth. The final objective of this end of degree project is the realization of the nucleus from a specific processor for the execution of the inverse cosine transform in a decoder of video that is compatible with the standard HEVC. This objective is reached following a series of stages, in which requirements are added. This system allows the hardware designer to acquire a deeper experience and knowledge of the final architecture.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La escritura es una actividad psicomotora muy importante en el desarrollo infantil. Tanto es así que su correcto aprendizaje condicionará el futuro de una persona, pues estará presente en todo tipo de situaciones cotidianas. La disgrafía es el término utilizado para referirse a los problemas relacionados con la escritura, y se manifiesta cuando la escritura de un determinado sujeto es ilegible o lenta como resultado de un aprendizaje fallido de los procesos motores de la escritura. Estos problemas intentan resolverse durante el desarrollo infantil mediante diferentes pruebas que miden las capacidades visomotoras de los niños basándose en criterios de forma (número y posición correcta de trazos). Sin embargo, a lo largo de los años estos criterios han demostrado no ser totalmente precisos en la detección prematura de posibles casos de disgrafía. Por ello, en este proyecto se ha desarrollado una aplicación que ayuda a ampliar la fiabilidad de los test actuales, utilizando un criterio cinemático. Esta aplicación, desarrollada para una tableta Android, muestra al niño una serie de figuras que él debe copiar en la tableta haciendo uso de un lápiz óptico. Los trazos registrados por la aplicación son analizados para valorar aspectos como la fluidez, continuidad y regularidad, ampliando así la fiabilidad de los test actuales, lo que permite desechar falsos positivos y detectar irregularidades que antes no podían ser detectadas. La aplicación desarrollada ha sido validada con un total de ocho niños de cuatro años y siete meses de media de edad, confirmando que cumple con las expectativas planteadas. ABSTRACT. Writing is a very important psychomotor activity in child development because it will be present in all kinds of everyday situations; therefore its proper learning will determine the future of the individual. Dysgraphia is the term used to refer to the problems related to writing, and it takes place when a particular person’s writing is unreadable or slow-moving as a result of a failed learning of writing motor processes. These problems are usually detected by different tests that measure children’s visual motor abilities based on shape criteria (correct number and position of strikes). However, over the years these criteria haven’t proved to be completely accurate in the early detection of possible cases of dysgraphia. Therefore, in this project is presented an application that extends the reliability of current test, using a kinematic approach. This application, developed for an Android tablet, displays a series of figures that the child must copy to the tablet by using a stylus. Strokes recorded by the application are then analyzed to assess aspects such as fluidity, continuity and regularity, expanding the reliability of the current test, discarding false positives created by the conventional criteria and detecting irregularities that previously could not be detected. The developed application has been validated with a total of eight children about four years and seven months in average age, confirming that the application fulfills the initial expectations.