922 resultados para Error Correction Coding, Error Resilience, MPEG-4, Video Coding


Relevância:

40.00% 40.00%

Publicador:

Resumo:

The aim of this paper was to accurately estimate the local truncation error of partial differential equations, that are numerically solved using a finite difference or finite volume approach on structured and unstructured meshes. In this work, we approximated the local truncation error using the @t-estimation procedure, which aims to compare the residuals on a sequence of grids with different spacing. First, we focused the analysis on one-dimensional scalar linear and non-linear test cases to examine the accuracy of the estimation of the truncation error for both finite difference and finite volume approaches on different grid topologies. Then, we extended the analysis to two-dimensional problems: first on linear and non-linear scalar equations and finally on the Euler equations. We demonstrated that this approach yields a highly accurate estimation of the truncation error if some conditions are fulfilled. These conditions are related to the accuracy of the restriction operators, the choice of the boundary conditions, the distortion of the grids and the magnitude of the iteration error.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

We introduce a simple and innovative method to compare any two texture maps, regardless of their sizes, aspect ratios, or even masks, as long as they are both meant to be mapped onto the same 3D mesh. Our system is based on a zero-distortion 3D mesh unwrapping technique which compares two new adapted texture atlases with the same mask but different texel colors, and whose every texel covers the same area in 3D. Once these adapted atlases are created, we measure their difference with ITEM-RMSE, a slightly modified version of the standard RMSE defined for images. ITEM-RMSE is more meaningful and reliable than RMSE because it only takes into account the texels inside the mask, since they are the only ones that will actually be used during rendering. Our method is not only very useful to compare the space efficiency of different texture atlas generation algorithms, but also to quantify texture loss in compression schemes for multi-resolution textured 3D meshes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Th e CERES-Maize model is the most widely used maize (Zea mays L.) model and is a recognized reference for comparing new developments in maize growth, development, and yield simulation. Th e objective of this study was to present and evaluate CSMIXIM, a new maize simulation model for DSSAT version 4.5. Code from CSM-CERES-Maize, the modular version of the model, was modifi ed to include a number of model improvements. Model enhancements included the simulation of leaf area, C assimilation and partitioning, ear growth, kernel number, grain yield, and plant N acquisition and distribution. Th e addition of two genetic coeffi cients to simulate per-leaf foliar surface produced 32% smaller root mean square error (RMSE) values estimating leaf area index than did CSM-CERES. Grain yield and total shoot biomass were correctly simulated by both models. Carbon partitioning, however, showed diff erences. Th e CSM-IXIM model simulated leaf mass more accurately, reducing the CSM-CERES error by 44%, but overestimated stem mass, especially aft er stress, resulting in similar average RMSE values as CSM-CERES. Excessive N uptake aft er fertilization events as simulated by CSM-CERES was also corrected, reducing the error by 16%. Th e accuracy of N distribution to stems was improved by 68%. Th ese improvements in CSM-IXIM provided a stable basis for more precise simulation of maize canopy growth and yield and a framework for continuing future model developments

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This paper proposes a diagnosis algorithm for locating a certain kind of errors in logic programs: variable binding errors that result in abstract symptoms during compile-time checking of assertions based on abstract interpretation. The diagnoser analyzes the graph generated by the abstract interpreter, which is a provably safe approximation of the program semantics. The proposed algorithm traverses this graph to find the point where the actual error originates (a reason of the symptom), leading to the point the error has been reported (the symptom). The procedure is fully automatic, not requiring any interaction with the user. A prototype diagnoser has been implemented and preliminary results are encouraging.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Métrica de calidad de video de alta definición construida a partir de ratios de referencia completa. La medida de calidad de video, en inglés Visual Quality Assessment (VQA), es uno de los mayores retos por solucionar en el entorno multimedia. La calidad de vídeo tiene un impacto altísimo en la percepción del usuario final (consumidor) de los servicios sustentados en la provisión de contenidos multimedia y, por tanto, factor clave en la valoración del nuevo paradigma denominado Calidad de la Experiencia, en inglés Quality of Experience (QoE). Los modelos de medida de calidad de vídeo se pueden agrupar en varias ramas según la base técnica que sustenta el sistema de medida, destacando en importancia los que emplean modelos psicovisuales orientados a reproducir las características del sistema visual humano, en inglés Human Visual System, del que toman sus siglas HVS, y los que, por el contrario, optan por una aproximación ingenieril en la que el cálculo de calidad está basado en la extracción de parámetros intrínsecos de la imagen y su comparación. A pesar de los avances recogidos en este campo en los últimos años, la investigación en métricas de calidad de vídeo, tanto en presencia de referencia (los modelos denominados de referencia completa), como en presencia de parte de ella (modelos de referencia reducida) e incluso los que trabajan en ausencia de la misma (denominados sin referencia), tiene un amplio camino de mejora y objetivos por alcanzar. Dentro de ellos, la medida de señales de alta definición, especialmente las utilizadas en las primeras etapas de la cadena de valor que son de muy alta calidad, son de especial interés por su influencia en la calidad final del servicio y no existen modelos fiables de medida en la actualidad. Esta tesis doctoral presenta un modelo de medida de calidad de referencia completa que hemos llamado PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), basado en la ponderación de cuatro ratios de calidad calculados a partir de características intrínsecas de la imagen. Son: El Ratio de Fidelidad, calculado mediante el gradiente morfológico o gradiente de Beucher. El Ratio de Similitud Visual, calculado mediante los puntos visualmente significativos de la imagen a través de filtrados locales de contraste. El Ratio de Nitidez, que procede de la extracción del estadístico de textura de Haralick contraste. El Ratio de Complejidad, obtenido de la definición de homogeneidad del conjunto de estadísticos de textura de Haralick PARMENIA presenta como novedad la utilización de la morfología matemática y estadísticos de Haralick como base de una métrica de medida de calidad, pues esas técnicas han estado tradicionalmente más ligadas a la teledetección y la segmentación de objetos. Además, la aproximación de la métrica como un conjunto ponderado de ratios es igualmente novedosa debido a que se alimenta de modelos de similitud estructural y otros más clásicos, basados en la perceptibilidad del error generado por la degradación de la señal asociada a la compresión. PARMENIA presenta resultados con una altísima correlación con las valoraciones MOS procedentes de las pruebas subjetivas a usuarios que se han realizado para la validación de la misma. El corpus de trabajo seleccionado procede de conjuntos de secuencias validados internacionalmente, de modo que los resultados aportados sean de la máxima calidad y el máximo rigor posible. La metodología de trabajo seguida ha consistido en la generación de un conjunto de secuencias de prueba de distintas calidades a través de la codificación con distintos escalones de cuantificación, la obtención de las valoraciones subjetivas de las mismas a través de pruebas subjetivas de calidad (basadas en la recomendación de la Unión Internacional de Telecomunicaciones BT.500), y la validación mediante el cálculo de la correlación de PARMENIA con estos valores subjetivos, cuantificada a través del coeficiente de correlación de Pearson. Una vez realizada la validación de los ratios y optimizada su influencia en la medida final y su alta correlación con la percepción, se ha realizado una segunda revisión sobre secuencias del hdtv test dataset 1 del Grupo de Expertos de Calidad de Vídeo (VQEG, Video Quality Expert Group) mostrando los resultados obtenidos sus claras ventajas. Abstract Visual Quality Assessment has been so far one of the most intriguing challenges on the media environment. Progressive evolution towards higher resolutions while increasing the quality needed (e.g. high definition and better image quality) aims to redefine models for quality measuring. Given the growing interest in multimedia services delivery, perceptual quality measurement has become a very active area of research. First, in this work, a classification of objective video quality metrics based on their underlying methodologies and approaches for measuring video quality has been introduced to sum up the state of the art. Then, this doctoral thesis describes an enhanced solution for full reference objective quality measurement based on mathematical morphology, texture features and visual similarity information that provides a normalized metric that we have called PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), with a high correlated MOS score. The PARMENIA metric is based on the pooling of different quality ratios that are obtained from three different approaches: Beucher’s gradient, local contrast filtering, and contrast and homogeneity Haralick’s texture features. The metric performance is excellent, and improves the current state of the art by providing a wide dynamic range that make easier to discriminate between very close quality coded sequences, especially for very high bit rates whose quality, currently, is transparent for quality metrics. PARMENIA introduces a degree of novelty against other working metrics: on the one hand, exploits the structural information variation to build the metric’s kernel, but complements the measure with texture information and a ratio of visual meaningful points that is closer to typical error sensitivity based approaches. We would like to point out that PARMENIA approach is the only metric built upon full reference ratios, and using mathematical morphology and texture features (typically used in segmentation) for quality assessment. On the other hand, it gets results with a wide dynamic range that allows measuring the quality of high definition sequences from bit rates of hundreds of Megabits (Mbps) down to typical distribution rates (5-6 Mbps), even streaming rates (1- 2 Mbps). Thus, a direct correlation between PARMENIA and MOS scores are easily constructed. PARMENIA may further enhance the number of available choices in objective quality measurement, especially for very high quality HD materials. All this results come from validation that has been achieved through internationally validated datasets on which subjective tests based on ITU-T BT.500 methodology have been carried out. Pearson correlation coefficient has been calculated to verify the accuracy of PARMENIA and its reliability.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Desarrollos recientes para encajar dentro de un marco variacional la llamada Formulación Libre sugieren la posibilidad de introducir un nuevo tipo de estimador de error para cálculos por elementos finitos. Este estimador se basa en una diferencia entre ciertos funcionales multicampo, que toman el mismo valor para la solución exacta del problema. En el presente articulo, dividido en dos partes, se introduce la formulación del estimador para problemas de elasticidad y de flexión de placas según las hipótesis clásicas de Kirchhoff. Se presentan también algunos ejeinplos para dar idea de los comportamientos numéricos observados.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nowadays, Computational Fluid Dynamics (CFD) solvers are widely used within the industry to model fluid flow phenomenons. Several fluid flow model equations have been employed in the last decades to simulate and predict forces acting, for example, on different aircraft configurations. Computational time and accuracy are strongly dependent on the fluid flow model equation and the spatial dimension of the problem considered. While simple models based on perfect flows, like panel methods or potential flow models can be very fast to solve, they usually suffer from a poor accuracy in order to simulate real flows (transonic, viscous). On the other hand, more complex models such as the full Navier- Stokes equations provide high fidelity predictions but at a much higher computational cost. Thus, a good compromise between accuracy and computational time has to be fixed for engineering applications. A discretisation technique widely used within the industry is the so-called Finite Volume approach on unstructured meshes. This technique spatially discretises the flow motion equations onto a set of elements which form a mesh, a discrete representation of the continuous domain. Using this approach, for a given flow model equation, the accuracy and computational time mainly depend on the distribution of nodes forming the mesh. Therefore, a good compromise between accuracy and computational time might be obtained by carefully defining the mesh. However, defining an optimal mesh for complex flows and geometries requires a very high level expertize in fluid mechanics and numerical analysis, and in most cases a simple guess of regions of the computational domain which might affect the most the accuracy is impossible. Thus, it is desirable to have an automatized remeshing tool, which is more flexible with unstructured meshes than its structured counterpart. However, adaptive methods currently in use still have an opened question: how to efficiently drive the adaptation ? Pioneering sensors based on flow features generally suffer from a lack of reliability, so in the last decade more effort has been made in developing numerical error-based sensors, like for instance the adjoint-based adaptation sensors. While very efficient at adapting meshes for a given functional output, the latter method is very expensive as it requires to solve a dual set of equations and computes the sensor on an embedded mesh. Therefore, it would be desirable to develop a more affordable numerical error estimation method. The current work aims at estimating the truncation error, which arises when discretising a partial differential equation. These are the higher order terms neglected in the construction of the numerical scheme. The truncation error provides very useful information as it is strongly related to the flow model equation and its discretisation. On one hand, it is a very reliable measure of the quality of the mesh, therefore very useful in order to drive a mesh adaptation procedure. On the other hand, it is strongly linked to the flow model equation, so that a careful estimation actually gives information on how well a given equation is solved, which may be useful in the context of _ -extrapolation or zonal modelling. The following work is organized as follows: Chap. 1 contains a short review of mesh adaptation techniques as well as numerical error prediction. In the first section, Sec. 1.1, the basic refinement strategies are reviewed and the main contribution to structured and unstructured mesh adaptation are presented. Sec. 1.2 introduces the definitions of errors encountered when solving Computational Fluid Dynamics problems and reviews the most common approaches to predict them. Chap. 2 is devoted to the mathematical formulation of truncation error estimation in the context of finite volume methodology, as well as a complete verification procedure. Several features are studied, such as the influence of grid non-uniformities, non-linearity, boundary conditions and non-converged numerical solutions. This verification part has been submitted and accepted for publication in the Journal of Computational Physics. Chap. 3 presents a mesh adaptation algorithm based on truncation error estimates and compares the results to a feature-based and an adjoint-based sensor (in collaboration with Jorge Ponsín, INTA). Two- and three-dimensional cases relevant for validation in the aeronautical industry are considered. This part has been submitted and accepted in the AIAA Journal. An extension to Reynolds Averaged Navier- Stokes equations is also included, where _ -estimation-based mesh adaptation and _ -extrapolation are applied to viscous wing profiles. The latter has been submitted in the Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering. Keywords: mesh adaptation, numerical error prediction, finite volume Hoy en día, la Dinámica de Fluidos Computacional (CFD) es ampliamente utilizada dentro de la industria para obtener información sobre fenómenos fluidos. La Dinámica de Fluidos Computacional considera distintas modelizaciones de las ecuaciones fluidas (Potencial, Euler, Navier-Stokes, etc) para simular y predecir las fuerzas que actúan, por ejemplo, sobre una configuración de aeronave. El tiempo de cálculo y la precisión en la solución depende en gran medida de los modelos utilizados, así como de la dimensión espacial del problema considerado. Mientras que modelos simples basados en flujos perfectos, como modelos de flujos potenciales, se pueden resolver rápidamente, por lo general aducen de una baja precisión a la hora de simular flujos reales (viscosos, transónicos, etc). Por otro lado, modelos más complejos tales como el conjunto de ecuaciones de Navier-Stokes proporcionan predicciones de alta fidelidad, a expensas de un coste computacional mucho más elevado. Por lo tanto, en términos de aplicaciones de ingeniería se debe fijar un buen compromiso entre precisión y tiempo de cálculo. Una técnica de discretización ampliamente utilizada en la industria es el método de los Volúmenes Finitos en mallas no estructuradas. Esta técnica discretiza espacialmente las ecuaciones del movimiento del flujo sobre un conjunto de elementos que forman una malla, una representación discreta del dominio continuo. Utilizando este enfoque, para una ecuación de flujo dado, la precisión y el tiempo computacional dependen principalmente de la distribución de los nodos que forman la malla. Por consiguiente, un buen compromiso entre precisión y tiempo de cálculo se podría obtener definiendo cuidadosamente la malla, concentrando sus elementos en aquellas zonas donde sea estrictamente necesario. Sin embargo, la definición de una malla óptima para corrientes y geometrías complejas requiere un nivel muy alto de experiencia en la mecánica de fluidos y el análisis numérico, así como un conocimiento previo de la solución. Aspecto que en la mayoría de los casos no está disponible. Por tanto, es deseable tener una herramienta que permita adaptar los elementos de malla de forma automática, acorde a la solución fluida (remallado). Esta herramienta es generalmente más flexible en mallas no estructuradas que con su homóloga estructurada. No obstante, los métodos de adaptación actualmente en uso todavía dejan una pregunta abierta: cómo conducir de manera eficiente la adaptación. Sensores pioneros basados en las características del flujo en general, adolecen de una falta de fiabilidad, por lo que en la última década se han realizado grandes esfuerzos en el desarrollo numérico de sensores basados en el error, como por ejemplo los sensores basados en el adjunto. A pesar de ser muy eficientes en la adaptación de mallas para un determinado funcional, este último método resulta muy costoso, pues requiere resolver un doble conjunto de ecuaciones: la solución y su adjunta. Por tanto, es deseable desarrollar un método numérico de estimación de error más asequible. El presente trabajo tiene como objetivo estimar el error local de truncación, que aparece cuando se discretiza una ecuación en derivadas parciales. Estos son los términos de orden superior olvidados en la construcción del esquema numérico. El error de truncación proporciona una información muy útil sobre la solución: es una medida muy fiable de la calidad de la malla, obteniendo información que permite llevar a cabo un procedimiento de adaptación de malla. Está fuertemente relacionado al modelo matemático fluido, de modo que una estimación precisa garantiza la idoneidad de dicho modelo en un campo fluido, lo que puede ser útil en el contexto de modelado zonal. Por último, permite mejorar la precisión de la solución resolviendo un nuevo sistema donde el error local actúa como término fuente (_ -extrapolación). El presenta trabajo se organiza de la siguiente manera: Cap. 1 contiene una breve reseña de las técnicas de adaptación de malla, así como de los métodos de predicción de los errores numéricos. En la primera sección, Sec. 1.1, se examinan las estrategias básicas de refinamiento y se presenta la principal contribución a la adaptación de malla estructurada y no estructurada. Sec 1.2 introduce las definiciones de los errores encontrados en la resolución de problemas de Dinámica Computacional de Fluidos y se examinan los enfoques más comunes para predecirlos. Cap. 2 está dedicado a la formulación matemática de la estimación del error de truncación en el contexto de la metodología de Volúmenes Finitos, así como a un procedimiento de verificación completo. Se estudian varias características que influyen en su estimación: la influencia de la falta de uniformidad de la malla, el efecto de las no linealidades del modelo matemático, diferentes condiciones de contorno y soluciones numéricas no convergidas. Esta parte de verificación ha sido presentada y aceptada para su publicación en el Journal of Computational Physics. Cap. 3 presenta un algoritmo de adaptación de malla basado en la estimación del error de truncación y compara los resultados con sensores de featured-based y adjointbased (en colaboración con Jorge Ponsín del INTA). Se consideran casos en dos y tres dimensiones, relevantes para la validación en la industria aeronáutica. Este trabajo ha sido presentado y aceptado en el AIAA Journal. También se incluye una extensión de estos métodos a las ecuaciones RANS (Reynolds Average Navier- Stokes), en donde adaptación de malla basada en _ y _ -extrapolación son aplicados a perfiles con viscosidad de alas. Este último trabajo se ha presentado en los Actas de la Institución de Ingenieros Mecánicos, Parte G: Journal of Aerospace Engineering. Palabras clave: adaptación de malla, predicción del error numérico, volúmenes finitos

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Mesh adaptation based on error estimation has become a key technique to improve th eaccuracy o fcomputational-fluid-dynamics computations. The adjoint-based approach for error estimation is one of the most promising techniques for computational-fluid-dynamics applications. Nevertheless, the level of implementation of this technique in the aeronautical industrial environment is still low because it is a computationally expensive method. In the present investigation, a new mesh refinement method based on estimation of truncation error is presented in the context of finite-volume discretization. The estimation method uses auxiliary coarser meshes to estimate the local truncation error, which can be used for driving an adaptation algorithm. The method is demonstrated in the context of two-dimensional NACA0012 and three-dimensional ONERA M6 wing inviscid flows, and the results are compared against the adjoint-based approach and physical sensors based on features of the flow field.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El principal objetivo de la presente investigación fue el conocer el perfil de rendimiento técnico de los triatletas, desde un punto de vista biomecánica, en el segmento carrera a pie durante la competición en triatlón. Asimismo, como el genero y el nivel deportivo del triatleta podrían influir en su respuesta motriz durante la competicion. Para ello, se necesitaba desarrollar y validar una técnica experimental que fuera lo suficientemente precisa (validez interna), con una alta fiabilidad y con una gran validez externa (ecologica) debido al entorno de la competicion. La muestra la formaron un total de 64 deportistas: 32 triatletas participantes en la Copa del Mundo de Triatlon de Madrid-2008 (16 hombres y 16 mujeres) y 32 triatletas participantes en el Clasificatorio del Campeonato de Espana Elite (16 hombres y 16 mujeres). El análisis de la técnica de carrera de los deportistas se realizo mediante un sistema fotogramétrico en 2d que permitió calcular las coordenadas (x,y) de los centros articulares con un error de 1.66% en el eje x y de un 2.10% en el eje y. Las imágenes fueron obtenidas por una cámara que filmaba el movimiento en un plano antero-posterior del triatleta. Algoritmos basados en la DLT (Abdel-Aziz & Karara, 1971) permitieron conocer las coordenadas reales a partir de las coordenadas digitalizadas en el plano y posteriormente las distintas variables analizadas. El análisis biomecánica de la carrera se realizo en 4 ocasiones diferentes durante la competición, correspondiendo con cada una de las vueltas de 2,5 km, que el triatleta tenía que realizar. La velocidad de carrera resulto estar íntimamente ligada al nivel deportivo del triatleta. Del mismo modo, 3 de los 4 grupos analizados presentaron valores inferiores a 3 minutos 30 segundos por kilometro recorrido, poniendo de manifiesto el altísimo nivel de los sujetos analizados. Del mismo modo parece que las chicos consiguen una mayor velocidad gracias a una mayor longitud de ciclo en relación a las chicas, ya que estas muestran valores mayores en cuanto a frecuencia de zancada. La frecuencia de zancada presento los valores más altos en la primera vuelta en todos los deportistas analizados. Asimismo, los triatletas de nivel internacional y las chicas fueron los que mostraron los mayores valores. La longitud de zancada presento distintas tendencias en función del nivel y el género del deportista. Así pues, en los deportistas internacionales y en los chicos los mayores valores se encontraron en la primera vuelta mientras que la tendencia fue al descenso, siendo probablemente la fatiga acumulada la causante de dicha tendencia. En cambio, aquellos deportistas de nivel nacional y las chicas mostraron valores mayores en la segunda vuelta que en la primera, evidenciando que además de la fatiga, el ciclismo previo tiene una incidencia directa sobre su rendimiento. Los tiempos de vuelo permanecieron constantes durante toda la carrera, encontrando cierta evolución en los tiempos de apoyo, la cual provoca una modificación en los porcentajes relativos en los tiempos de vuelo. Los tiempos de apoyo más bajos se encontraron en la primera vuelta. Del mismo modo, los deportistas de nivel internacional y los chicos mostraron valores inferiores. También, estos grupos fueron más constantes en sus valores a lo largo de las vueltas. Por el contrario, se encontraron tendencias al aumento en los triatletas de nivel nacional y en las chicas, los cuales no fueron capaces de mantener el mismo rendimiento debido seguramente a su menor nivel deportivo. La oscilación vertical de la cadera se mostro constante en los triatletas de mayor nivel, encontrándose tendencias al aumento en los de menor nivel. Del mismo modo, los valores más altos correspondieron a las chicas y a los deportistas de nivel nacional. La distancia de la cadera al apoyo permaneció constante a lo largo de las vueltas en todos los grupos, obteniéndose valores mayores en los triatletas de nivel internacional y en los chicos. El ángulo de la rodilla apoyada en el momento del despegue no mostro una tendencia clara. Los deportistas de nivel internacional y los chicos presentaron los valores más bajos. El ángulo de la rodilla libre en el momento del despegue mostro una correlación muy alta con la velocidad de carrera. Del mismo modo, los ángulos más pequeños se encontraron en los triatletas internacionales y en los chicos, debido seguramente a los mayores valores de velocidad registrados por ambos grupos. Los ángulos de los tobillos no mostraron ninguna tendencia clara durante la competición analizada. Los cuatro grupos de población presentaron valores similares, por lo que parece que no representan una variable que pueda incidir sobre el rendimiento biomecánica del triatleta. Los resultados obtenidos en el presente estudio de investigación avalan la utilización de la fotogrametría-video en 2d para el análisis de la técnica de carrera durante la competición en triatlón. Su aplicación en una competición de máximo nivel internacional ha posibilitado conocer el perfil técnico que presentan los triatletas a lo largo del segmento de carrera a pie. Del mismo modo, se ha podido demostrar como los estudios realizados en laboratorio no reflejan la realidad competitiva de un triatlón de máximo nivel. The aim of this research was to determine the running technique profile during a triathlon competition from a biomechanical perspective. Also, to analyze the triathlete gender’s and level of performance’s influence on this profile in competition. An accurate (internal validity) and reliable methodology with a high external validity (ecological) had to be developed to get those aims in competition. Sixty-four triathletes were analyzed. 32 (16 males, 16 females) took part in the Madrid 2008 Triathlon World Cup and 32 (16 males and 16 females) took part in the Spanish Triathlon National Championships. The biomechanical analyses were carried out by a photogrammetric system that allow to calculate the landmarks coordinates (x,y) with a 1.66% error in x axis, and a 2.10% error in y axis. The frames were obtained with a camera situated perpendicular to the triathletes’ trajectory, filming the saggittal plane. DLT based algorithms (Abdel-Aziz & Karara, 1971) were used to calculate the real coordinates from the digitalized ones and the final variables afterwards. The biomechanical analisys itself was performed in four different moments during the competition, according to each 2.5 km lap the triathletes had to do. Running speed was highly related to performance level. Also, 3 of the 4 analyzed groups showed speed values under the 3 minutes and 30 seconds per kilometer. It demonstrated the very high performance level of the analized triathletes. Furthermore, it seems that men get higher speeds because their longer stride length, while women shows higher stride frequency values. The highest stride frequency values were found in the first lap. Women and the international level triathletes showed the highest values. Stride length showed different tendencies according to the gender and level of performance. Men and international level triathletes showed the highest level in the first lap and a decreasing tendency after that. The accumulated fatigue was probably the reason of this tendency. On the other hand, higher values than in first lap were found in the second one in women and national level triathletes. It demonstrated the previous cycling can affect to those groups in terms of biomechanics. Flight times remained constant during the running part, while the contact times showed an increasing tendency that caused a variation in flight times percents. The lowest contact times were found in the first lap and in men and international triathletes’ values. Also, these two groups were more consistent during the whole running. On the other hand, increasing tendencies were found in women and national level triathletes, who were not able to maintain the same values probably due to their lower level of performance. Higher level triathletes showed more consistent hip vertical oscillation values than lower level triathletes, who presented increasing tendencies. The highest values were found in women and national level triathletes. The horizontal distance hip-toe cap remained constant among the laps in all the groups. Men and international level triathletes showed the highest values. The support knee angle at toe-off did not show a clear tendency. The lowest values were found in men and international level triathletes. A high correlation was found between the non-support knee angle and the running speed. Furthermore, men and international level triathletes showed the smallest values, due to the higher velocities reached by these two groups. Ankles angles did not show any tendency during the running part. Similar values were found in the four analyzed groups, so this variable does not seem to represent an important one within the triathlete’s performance. The results obtained in the present research support the use of the bidimensional photogrammetric video-system to analyze the running technique during a triathlon competition. Its application in international triathlon meetings has allowed determining the triathletes’ technique profile during the running part. Also, it has been demonstrated the laboratory-based studies does not reproduce a top-level competition.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Desarrollos recientes para encajar dentro de un marco variacional la llamada Formulación Libre sugieren la posibilidad de introducir un nuevo tipo de estimador de error para cálculos por elementos finitos. Este estimador se basa en una diferencia entre ciertos funcionales multicampo, que toman el mismo valor para la solución exacta del problema. En el presente artículo, dividido en dos partes, se introduce la formulación del estimador para problemas de elasticidad y de flexión de placas según las hipótesis clásicas de Kirchhoff. Se presentan también algunos ejemplos para dar idea de los comportamientos numéricos observados.