489 resultados para Cointegração não paramétrica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo consistió en el desarrollo de una intervención nutricional a largo plazo llevada a cabo con jugadores profesionales de baloncesto, en función al cumplimiento de las recomendaciones nutricionales, con los siguientes dos objetivos: 1) valorar los cambios que dicha intervención produce sobre las prácticas nutricionales diarias de estos deportistas y 2) conocer la influencia de las modificaciones nutricionales producidas sobre la tasa de percepción del esfuerzo por sesión (RPE-Sesión) y la fatiga, a lo largo de una temporada competitiva, tanto para entrenamientos como partidos oficiales. Los objetivos del estudio se fundamentan en: 1) la numerosa evidencia científica que muestra la inadecuación de los hábitos nutricionales de los jugadores de baloncesto y otros deportistas respecto a las recomendaciones nutricionales; 2) el hecho ampliamente reconocido en la literatura especializada de que una ingesta nutricional óptima permite maximizar el rendimiento deportivo (a nivel físico y cognitivo), promoviendo una rápida recuperación y disminuyendo el riesgo de enfermedades y lesiones deportivas. No obstante, pocos estudios han llevado a cabo una intervención nutricional a largo plazo para mejorar los hábitos alimentarios de los deportistas y ninguno de ellos fue realizado con jugadores de baloncesto; 3) la elevada correlación entre la percepción del esfuerzo (RPE) y variables fisiológicas relacionadas al desarrollo de un ejercicio (por ej.: frecuencia cardíaca, consumo máximo de oxígeno o lactato sanguíneo) y los múltiples estudios que muestran la atenuación de la RPE durante la realización del ejercicio mediante una ingesta puntual de nutrientes, (especialmente de hidratos de carbono) aunque ninguno fue desarrollado en baloncesto; 4) el estudio incipiente de la relación entre la ingesta nutricional y la RPE-Sesión, siendo éste un método validado en baloncesto y otros deportes de equipo como indicador de la carga de trabajo interna, el rendimiento deportivo y la intensidad del ejercicio realizado; 5) el hecho de que la fatiga constituye uno de los principales factores influyentes en la percepción del esfuerzo y puede ser retrasada y/o atenuada mediante la ingesta de carbohidratos, pudiendo disminuir consecuentemente la RPE-Sesión y la carga interna del esfuerzo físico, potenciando el rendimiento deportivo y las adaptaciones inducidas por el entrenamiento; 6) la reducida evidencia acerca del comportamiento de la RPE-Sesión ante la modificación de la ingesta de nutrientes, encontrándose sólo un estudio llevado a cabo en baloncesto y 7) la ausencia de investigaciones acerca de la influencia que puede tener la mejora del patrón nutricional de los jugadores sobre la RPE-Sesión y la fatiga, desconociéndose si la adecuación de los hábitos nutricionales conduce a una disminución de estas variables en el largo plazo para todos los entrenamientos y partidos oficiales a nivel profesional. Por todo esto, este trabajo comienza con una introducción que presenta el marco teórico de la importancia y función de la nutrición en el deporte, así como de las recomendaciones nutricionales actuales a nivel general y para baloncesto. Además, se describen las intervenciones nutricionales llevadas a cabo previamente con otros deportistas y las consecuentes modificaciones sobre el patrón alimentario, coincidiendo este aspecto con el primer objetivo del presente estudio. Posteriormente, se analiza la RPE, la RPE-Sesión y la fatiga, focalizando el estudio en la relación de dichas variables con la carga de trabajo físico, la intensidad del entrenamiento, el rendimiento deportivo y la recuperación post ejercicio. Finalmente, se combinan todos los aspectos mencionados: ingesta nutricional, RPE percepción del esfuerzo y fatiga, con el fin de conocer la situación actual del estudio de la relación entre dichas variables, conformando la base del segundo objetivo de este estudio. Seguidamente, se exponen y fundamentan los objetivos antes mencionados, para dar lugar después a la explicación de la metodología utilizada en el presente estudio. Ésta consistió en un diseño de estudios de caso, aplicándose una intervención nutricional personalizada a tres jugadores de baloncesto profesional (cada jugador = un estudio de caso; n = 1), con el objetivo de adecuar su ingesta nutricional en el largo plazo a las recomendaciones nutricionales. A su vez, se analizó la respuesta individual de cada uno de los casos a dicha intervención para los dos objetivos del estudio. Para ello, cada jugador completó un registro diario de alimentos (7 días; pesada de alimentos) antes, durante y al final de la intervención. Además, los sujetos registraron diariamente a lo largo del estudio la RPE-Sesión y la fatiga en entrenamientos físicos y de balón y en partidos oficiales de liga, controlándose además en forma cuantitativa otras variables influyentes como el estado de ánimo y el sueño. El análisis de los datos consistió en el cálculo de los estadísticos descriptivos para todas las variables, la comparación de la ingesta en los diferentes momentos evaluados con las recomendaciones nutricionales y una comparación de medias no paramétrica entre el período pre intervención y durante la intervención con el test de Wilcoxon (medidas repetidas) para todas las variables. Finalmente, se relacionaron los cambios obtenidos en la ingesta nutricional con la percepción del esfuerzo y la fatiga y la posible influencia del estado de ánimo y el sueño, a través de un estudio correlacional (Tau_b de Kendall). Posteriormente, se presentan los resultados obtenidos y la discusión de los mismos, haciendo referencia a la evidencia científica relacionada que se encuentra publicada hasta el momento, la cual facilitó el análisis de la relación entre RPE-Sesión, fatiga y nutrición a lo largo de una temporada. Los principales hallazgos y su correspondiente análisis, por lo tanto, pueden resumirse en los siguientes: 1) los tres jugadores de baloncesto profesional presentaron inicialmente hábitos nutricionales inadecuados, haciendo evidente la necesidad de un nutricionista deportivo dentro del cuerpo técnico de los equipos profesionales; 2) las principales deficiencias correspondieron a un déficit pronunciado de energía e hidratos de carbono, que fueron reducidas con la intervención nutricional; 3) la ingesta excesiva de grasa total, ácidos grasos saturados, etanol y proteínas que se halló en alguno/s de los casos, también se adecuó a las recomendaciones después de la intervención; 4) la media obtenida durante un período de la temporada para la RPE-Sesión y la fatiga de entrenamientos, podría ser disminuida en un jugador individual mediante el incremento de su ingesta de carbohidratos a largo plazo, siempre que no existan alteraciones psico-emocionales relevantes; 5) el comportamiento de la RPE-Sesión de partidos oficiales no parece estar influido por los factores nutricionales modificados en este estudio, dependiendo más de la variación de elementos externos no controlables, intrínsecos a los partidos de baloncesto profesional. Ante estos resultados, se pudo observar que las diferentes características de los jugadores y las distintas respuestas obtenidas después de la intervención, reforzaron la importancia de utilizar un diseño de estudio de casos para el análisis de los deportistas de élite y, asimismo, de realizar un asesoramiento nutricional personalizado. Del mismo modo, la percepción del esfuerzo y la fatiga de cada jugador evolucionaron de manera diferente después de la intervención nutricional, lo cual podría depender de las diferentes características de los sujetos, a nivel físico, psico-social, emocional y contextual. Por ello, se propone que el control riguroso de las variables cualitativas que parecen influir sobre la RPE y la fatiga a largo plazo, facilitaría la comprensión de los datos y la determinación de factores desconocidos que influyen sobre estas variables. Finalmente, al ser la RPE-Sesión un indicador directo de la carga interna del entrenamiento, es decir, del estrés psico-fisiológico experimentado por el deportista, la posible atenuación de esta variable mediante la adecuación de los hábitos nutricionales, permitiría aplicar las cargas externas de entrenamiento planificadas, con menor estrés interno y mejor recuperación entre sesiones, disminuyendo también la sensación de fatiga, a pesar del avance de la temporada. ABSTRACT This study consisted in a long-term nutritional intervention carried out with professional basketball players according to nutritional recommendations, with the following two main objectives: 1) to evaluate the changes produced by the intervention on daily nutritional practices of these athletes and 2) to determine the influence of long term nutritional intake modifications on the rate of perceived exertion per session (Session-RPE) and fatigue, throughout a competitive season for training as well as competition games. These objectives are based on: 1) much scientific evidence that shows an inadequacy of the nutritional habits of basketball players and other athletes regarding nutritional recommendations; 2) the fact widely recognized in the scientific literature that an optimal nutrition allows to achieve the maximum performance of an athlete (both physically and cognitively), promoting fast recovery and decreasing risks of sports injuries and illnesses. However, only few studies carried out a long term nutritional intervention to improve nutritional practices of athletes and it could not be found any research with basketball players; 3) the high correlation between the rate of perceived exertion (RPE) and physiological variables related to the performance of physical exercise (e.g.: heart rate, maximum consumption of oxygen or blood lactate) and multiple studies showing the attenuation of RPE during exercise due to the intake of certain nutrients (especially carbohydrates), while none of them was developed in basketball; 4) correlation between nutritional intake and Session-RPE has been recently studied for the first time. Session-RPE method has been validated in basketball players and other team sports as an indicator of internal workload, sports performance and exercise intensity; 5) fatigue is considered one of the main influential factor on RPE and sport performance. It has also been observed that carbohydrates intake may delay or mitigate the onset of fatigue and, thus, decrease the perceived exertion and the internal training load, which could improve sports performance and training-induced adaptations; 6) there are few studies evaluating the influence of nutrient intake on Session-RPE and only one of them has been carried out with basketball players. Moreover, it has not been analyzed the possible effects of the adequacy of players’ nutritional habits through a nutritional intervention on Session-RPE and fatigue, variables that could be decreased for all training session and competition games because of an improvement of daily nutritional intake. Therefore, this work begins with an introduction that provides the conceptual framework of this research focused on the key role of nutrition in sport, as well as on the current nutritional recommendations for athletes and specifically for basketball players. In addition, previous nutritional interventions carried out with other athletes are described, as well as consequential modifications on their food pattern, coinciding with the first objective of the present study. Subsequently, RPE, Session-RPE and fatigue are analyzed, with focus on their correlation with physical workload, training intensity, sports performance and recovery. Finally, all the aforementioned aspects (nutritional intake, RPE and fatigue) were combined in order to know the current status of the relation between each other, this being the base for the second objective of this study. Subsequently, the objectives mentioned above are explained, continuing with the explanation of the methodology used in the study. The methodology consisted of a case-study design, carrying out a long term nutritional intervention with three professional basketball players (each player = one case study; n = 1), in order to adapt their nutritional intake to nutritional recommendations. At the same time, the individual response of each player to the intervention was analyzed for the two main objectives of the study. Each player completed a food diary (7 days; weighing food) in three moments: before, during and at the end of the intervention. In addition, the Session-RPE and fatigue were daily recorded throughout the study for all trainings (training with ball and resistance training) and competition games. At the same time, other potentially influential variables such as mood state and sleeping were daily controlled throughout the study. Data analysis consisted in descriptive statistics calculation for all the variables of the study, the comparison between nutritional intake (evaluated at different times) and nutritional recommendations and a non-parametric mean comparison between pre intervention and during intervention periods was made by Wilcoxon test (repeated measurements) for all variables too. Finally, the changes in nutritional intake, mood state and sleeping were correlated with the perceived exertion and fatigue through correctional study (Tau_b de Kendall). After the methodology, the study results and the associated discussion are presented. The discussion is based on the current scientific evidence that contributes to understand the relation between Session-RPE, fatigue and nutrition throughout the competitive season. The main findings and results analysis can be summarized as follows: 1) the three professional basketball players initially had inadequate nutritional habits and this clearly shows the need of a sports nutritionist in the coaching staff of professional teams; (2) the major deficiencies of the three players’ diet corresponded to a pronounced deficit of energy intake and carbohydrates consumption which were reduced with nutritional intervention; (3) the excessive intake of total fat, saturated fatty acids, ethanol and protein found in some cases were also adapted to the recommendations after the intervention; (4) Session-RPE mean and fatigue of a certain period of the competition season, could be decreased in an individual player by increasing his carbohydrates intake in the long term, if there are no relevant psycho-emotional disorders; (5) the behavior of the Session-RPE in competition games does not seem to be influenced by the nutritional factors modified in this study. They seem to depend much more on the variation of external non-controllable factors associated with the professional basketball games. Given these results, the different characteristics of each player and the diverse responses observed after the intervention in each individual for all the variables, reinforced the importance of the use of a case study design for research with elite athletes as well as personalized nutritional counselling. In the same way, the different responses obtained for RPE and fatigue in the long term for each player due to modification of nutritional habits, show that there is a dependence of such variables on the physical, psychosocial, emotional and contextual characteristics of each player. Therefore it is proposed that the rigorous control of the qualitative variables that seem to influence the RPE and fatigue in the long term, may facilitate the understanding of data and the determination of unknown factors that could influence these variables. Finally, because Session-RPE is a direct indicator of the internal load of training (psycho-physiological stress experienced by the athlete), the possible attenuation of Session-RPE through the improvement in nutritional habits, would allow to apply the planned external loads of training with less internal stress and better recovery between sessions, with a decrease in fatigue, despite of the advance of the season.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El agotamiento, la ausencia o, simplemente, la incertidumbre sobre la cantidad de las reservas de combustibles fósiles se añaden a la variabilidad de los precios y a la creciente inestabilidad en la cadena de aprovisionamiento para crear fuertes incentivos para el desarrollo de fuentes y vectores energéticos alternativos. El atractivo de hidrógeno como vector energético es muy alto en un contexto que abarca, además, fuertes inquietudes por parte de la población sobre la contaminación y las emisiones de gases de efecto invernadero. Debido a su excelente impacto ambiental, la aceptación pública del nuevo vector energético dependería, a priori, del control de los riesgos asociados su manipulación y almacenamiento. Entre estos, la existencia de un innegable riesgo de explosión aparece como el principal inconveniente de este combustible alternativo. Esta tesis investiga la modelización numérica de explosiones en grandes volúmenes, centrándose en la simulación de la combustión turbulenta en grandes dominios de cálculo en los que la resolución que es alcanzable está fuertemente limitada. En la introducción, se aborda una descripción general de los procesos de explosión. Se concluye que las restricciones en la resolución de los cálculos hacen necesario el modelado de los procesos de turbulencia y de combustión. Posteriormente, se realiza una revisión crítica de las metodologías disponibles tanto para turbulencia como para combustión, que se lleva a cabo señalando las fortalezas, deficiencias e idoneidad de cada una de las metodologías. Como conclusión de esta investigación, se obtiene que la única estrategia viable para el modelado de la combustión, teniendo en cuenta las limitaciones existentes, es la utilización de una expresión que describa la velocidad de combustión turbulenta en función de distintos parámetros. Este tipo de modelos se denominan Modelos de velocidad de llama turbulenta y permiten cerrar una ecuación de balance para la variable de progreso de combustión. Como conclusión también se ha obtenido, que la solución más adecuada para la simulación de la turbulencia es la utilización de diferentes metodologías para la simulación de la turbulencia, LES o RANS, en función de la geometría y de las restricciones en la resolución de cada problema particular. Sobre la base de estos hallazgos, el crea de un modelo de combustión en el marco de los modelos de velocidad de la llama turbulenta. La metodología propuesta es capaz de superar las deficiencias existentes en los modelos disponibles para aquellos problemas en los que se precisa realizar cálculos con una resolución moderada o baja. Particularmente, el modelo utiliza un algoritmo heurístico para impedir el crecimiento del espesor de la llama, una deficiencia que lastraba el célebre modelo de Zimont. Bajo este enfoque, el énfasis del análisis se centra en la determinación de la velocidad de combustión, tanto laminar como turbulenta. La velocidad de combustión laminar se determina a través de una nueva formulación capaz de tener en cuenta la influencia simultánea en la velocidad de combustión laminar de la relación de equivalencia, la temperatura, la presión y la dilución con vapor de agua. La formulación obtenida es válida para un dominio de temperaturas, presiones y dilución con vapor de agua más extenso de cualquiera de las formulaciones previamente disponibles. Por otra parte, el cálculo de la velocidad de combustión turbulenta puede ser abordado mediante el uso de correlaciones que permiten el la determinación de esta magnitud en función de distintos parámetros. Con el objetivo de seleccionar la formulación más adecuada, se ha realizado una comparación entre los resultados obtenidos con diversas expresiones y los resultados obtenidos en los experimentos. Se concluye que la ecuación debida a Schmidt es la más adecuada teniendo en cuenta las condiciones del estudio. A continuación, se analiza la importancia de las inestabilidades de la llama en la propagación de los frentes de combustión. Su relevancia resulta significativa para mezclas pobres en combustible en las que la intensidad de la turbulencia permanece moderada. Estas condiciones son importantes dado que son habituales en los accidentes que ocurren en las centrales nucleares. Por ello, se lleva a cabo la creación de un modelo que permita estimar el efecto de las inestabilidades, y en concreto de la inestabilidad acústica-paramétrica, en la velocidad de propagación de llama. El modelado incluye la derivación matemática de la formulación heurística de Bauwebs et al. para el cálculo de la incremento de la velocidad de combustión debido a las inestabilidades de la llama, así como el análisis de la estabilidad de las llamas con respecto a una perturbación cíclica. Por último, los resultados se combinan para concluir el modelado de la inestabilidad acústica-paramétrica. Tras finalizar esta fase, la investigación se centro en la aplicación del modelo desarrollado en varios problemas de importancia para la seguridad industrial y el posterior análisis de los resultados y la comparación de los mismos con los datos experimentales correspondientes. Concretamente, se abordo la simulación de explosiones en túneles y en contenedores, con y sin gradiente de concentración y ventilación. Como resultados generales, se logra validar el modelo confirmando su idoneidad para estos problemas. Como última tarea, se ha realizado un analisis en profundidad de la catástrofe de Fukushima-Daiichi. El objetivo del análisis es determinar la cantidad de hidrógeno que explotó en el reactor número uno, en contraste con los otros estudios sobre el tema que se han centrado en la determinación de la cantidad de hidrógeno generado durante el accidente. Como resultado de la investigación, se determinó que la cantidad más probable de hidrogeno que fue consumida durante la explosión fue de 130 kg. Es un hecho notable el que la combustión de una relativamente pequeña cantidad de hidrogeno pueda causar un daño tan significativo. Esta es una muestra de la importancia de este tipo de investigaciones. Las ramas de la industria para las que el modelo desarrollado será de interés abarca la totalidad de la futura economía de hidrógeno (pilas de combustible, vehículos, almacenamiento energético, etc) con un impacto especial en los sectores del transporte y la energía nuclear, tanto para las tecnologías de fisión y fusión. ABSTRACT The exhaustion, absolute absence or simply the uncertainty on the amount of the reserves of fossil fuels sources added to the variability of their prices and the increasing instability and difficulties on the supply chain are strong incentives for the development of alternative energy sources and carriers. The attractiveness of hydrogen in a context that additionally comprehends concerns on pollution and emissions is very high. Due to its excellent environmental impact, the public acceptance of the new energetic vector will depend on the risk associated to its handling and storage. Fromthese, the danger of a severe explosion appears as the major drawback of this alternative fuel. This thesis investigates the numerical modeling of large scale explosions, focusing on the simulation of turbulent combustion in large domains where the resolution achievable is forcefully limited. In the introduction, a general description of explosion process is undertaken. It is concluded that the restrictions of resolution makes necessary the modeling of the turbulence and combustion processes. Subsequently, a critical review of the available methodologies for both turbulence and combustion is carried out pointing out their strengths and deficiencies. As a conclusion of this investigation, it appears clear that the only viable methodology for combustion modeling is the utilization of an expression for the turbulent burning velocity to close a balance equation for the combustion progress variable, a model of the Turbulent flame velocity kind. Also, that depending on the particular resolution restriction of each problem and on its geometry the utilization of different simulation methodologies, LES or RANS, is the most adequate solution for modeling the turbulence. Based on these findings, the candidate undertakes the creation of a combustion model in the framework of turbulent flame speed methodology which is able to overcome the deficiencies of the available ones for low resolution problems. Particularly, the model utilizes a heuristic algorithm to maintain the thickness of the flame brush under control, a serious deficiency of the Zimont model. Under the approach utilized by the candidate, the emphasis of the analysis lays on the accurate determination of the burning velocity, both laminar and turbulent. On one side, the laminar burning velocity is determined through a newly developed correlation which is able to describe the simultaneous influence of the equivalence ratio, temperature, steam dilution and pressure on the laminar burning velocity. The formulation obtained is valid for a larger domain of temperature, steam dilution and pressure than any of the previously available formulations. On the other side, a certain number of turbulent burning velocity correlations are available in the literature. For the selection of the most suitable, they have been compared with experiments and ranked, with the outcome that the formulation due to Schmidt was the most adequate for the conditions studied. Subsequently, the role of the flame instabilities on the development of explosions is assessed. Their significance appears to be of importance for lean mixtures in which the turbulence intensity remains moderate. These are important conditions which are typical for accidents on Nuclear Power Plants. Therefore, the creation of a model to account for the instabilities, and concretely, the acoustic parametric instability is undertaken. This encloses the mathematical derivation of the heuristic formulation of Bauwebs et al. for the calculation of the burning velocity enhancement due to flame instabilities as well as the analysis of the stability of flames with respect to a cyclic velocity perturbation. The results are combined to build a model of the acoustic-parametric instability. The following task in this research has been to apply the model developed to several problems significant for the industrial safety and the subsequent analysis of the results and comparison with the corresponding experimental data was performed. As a part of such task simulations of explosions in a tunnel and explosions in large containers, with and without gradient of concentration and venting have been carried out. As a general outcome, the validation of the model is achieved, confirming its suitability for the problems addressed. As a last and final undertaking, a thorough study of the Fukushima-Daiichi catastrophe has been carried out. The analysis performed aims at the determination of the amount of hydrogen participating on the explosion that happened in the reactor one, in contrast with other analysis centered on the amount of hydrogen generated during the accident. As an outcome of the research, it was determined that the most probable amount of hydrogen exploding during the catastrophe was 130 kg. It is remarkable that the combustion of such a small quantity of material can cause tremendous damage. This is an indication of the importance of these types of investigations. The industrial branches that can benefit from the applications of the model developed in this thesis include the whole future hydrogen economy, as well as nuclear safety both in fusion and fission technology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudio pretende estimar la eficiencia y la productividad de las principales provincias de la producción de trigo en Egipto. Los datos utilizados en este estudio son datos de panel a nivel de provincias del período 1990-2012, obtenidos del Ministerio de Agricultura y Recuperación Tierras, y de la Agencia Central de Movilización Pública y Estadística, Egipto. Se aplica el enfoque de fronteras estocásticas para medir la eficiencia (función de producción de Cobb-Douglas) y se emplean las especificaciones de Battese y Coelli (1992) y (1995). También se utiliza el índice de Malmquist como una aproximación no paramétrica (Análisis de Envolvente de Datos) para descomponer la productividad total de los factores de las principales provincias productoras de trigo en Egipto en cambio técnico y cambio de eficiencia. El coeficiente de tierra es positivo y significativo en los dos especificaciones Battese y Coelli (1992) y (1995), lo que implica que aumentar la tierra para este cultivo aumentaría significativamente la producción de trigo. El coeficiente de trabajo es positivo y significativo en la especificación de Battese y Coelli (1992), mientras que es positivo y no significativo en la especificación de Battese y Coelli (1995). El coeficiente de la maquinaria es negativo y no significativo en las dos especificaciones de Battese y Coelli (1992) y (1995). El coeficiente de cambio técnico es positivo y no significativo en la especificación de Battese y Coelli (1992), mientras que es positiva y significativo en la especificación de Battese y Coelli (1995). Las variables de efectos del modelo de ineficiencia Battese y Coelli (1995) indican que no existe impacto de las diferentes provincias en la producción de trigo en Egipto; la ineficiencia técnica de la producción de trigo tendió a disminuir durante el período de estudio; y no hay ningún impacto de género en la producción de trigo en Egipto. Los niveles de eficiencia técnica varían entre las diferentes provincias para las especificaciones de Battese y Coelli (1992) y (1995); el nivel mínimo medio de eficiencia técnica es 91.61% en la provincia de Fayoum, mientras que el nivel máximo medio de la eficiencia técnica es 98.69% en la provincia de Dakahlia. La eficiencia técnica toma un valor medio de 95.37%, lo que implica poco potencial para mejorar la eficiencia de uso de recursos en la producción de trigo. La TFPCH de la producción de trigo en Egipto durante el período 1990-2012 tiene un valor menor que uno y muestra un declive. Esta disminución es debida más al componente de cambio técnico que al componente de cambio de eficiencia. La disminución de TFPCH mejora con el tiempo. La provincia de Menoufia tiene la menor disminución en TFPCH, 6.5%, mientras que dos provincias, Sharkia y Dakahlia, son las que más disminuyen en TFPCH, 13.1%, en cada uno de ellas. Menos disminución en TFPCH ocurre en el período 2009-2010, 0.3%, mientras que más disminución se produce en TFPCH en el período 1990-1991, 38.9%. La disminución de la PTF de la producción de trigo en Egipto se atribuye principalmente a la mala aplicación de la tecnología. ABSTRACT The objectives of this study are to estimate the efficiency and productivity of the main governorates of wheat production in Egypt. The data used in this study is a panel data at the governorates level, it represents the time period 1990-2012 and taken from the Ministry of Agriculture and Land Reclamation, and the Central Agency for Public Mobilization and Statistics, Egypt. We apply the stochastic frontier approach for efficiency measurement (Cobb-Douglas production function) and the specifications of Battese and Coelli (1992) and (1995) are employed. Also we use Malmquist TFP index as a non-parametric approach (DEA) to decompose total factor productivity of the main governorates of wheat production in Egypt into technical change and efficiency change. The coefficient of land is positive and significant at Battese and Coelli (1992) and (1995) specifications, implying that increasing the wheat area could significantly enhance the production of wheat. The coefficient of labor is positive and significant at Battese and Coelli (1992) specification, while it is positive and insignificant at Battese and Coelli (1995) specification. The coefficient of machinery is negative and insignificant at the specifications of Battese and Coelli (1992) and (1995). The technical change coefficient is positive and insignificant at Battese and Coelli (1992) specification, while it is positive and significant at Battese and Coelli (1995) specification. The variables of the inefficiency effect model indicate that there is no impact from the location of the different governorates on wheat production in Egypt, the technical inefficiency of wheat production tended to decrease through the period of study, and there is no impact from the gender on wheat production in Egypt. The levels of technical efficiency vary among the different governorates for the specifications of Battese and Coelli (1992) and (1995); the minimum mean level of technical efficiency is 91.61% at Fayoum governorate, while the maximum mean level of technical efficiency is 98.69% at Dakahlia governorate. The technical efficiency takes an average value of 95.37%, this implying that little potential exists to improve resource use efficiency in wheat production. The TFPCH of wheat production in Egypt during the time period 1990-2012 has a value less than one and shows a decline; this decline is due mainly to the technical change component than the efficiency change component. The decline in TFPCH is generally improves over time. Menoufia governorate has the least declining in TFPCH by 6.5%, while two governorates, Sharkia and Dakahlia have the most declining in TFPCH by 13.1% for each of them. The least declining in TFPCH occurred at the period 2009- 2010 by 0.3%, while the most declining in TFPCH occurred at the period 1990-1991 by 38.9%. The declining in TFP of wheat production in Egypt is attributed mainly to poor application of technology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio sísmico en los últimos 50 años y el análisis del comportamiento dinámico del suelo revelan que el comportamiento del suelo es altamente no lineal e histéretico incluso para pequeñas deformaciones. El comportamiento no lineal del suelo durante un evento sísmico tiene un papel predominante en el análisis de la respuesta de sitio. Los análisis unidimensionales de la respuesta sísmica del suelo son a menudo realizados utilizando procedimientos lineales equivalentes, que requieren generalmente pocos parámetros conocidos. Los análisis de respuesta de sitio no lineal tienen el potencial para simular con mayor precisión el comportamiento del suelo, pero su aplicación en la práctica se ha visto limitada debido a la selección de parámetros poco documentadas y poco claras, así como una inadecuada documentación de los beneficios del modelado no lineal en relación al modelado lineal equivalente. En el análisis del suelo, el comportamiento del suelo es aproximado como un sólido Kelvin-Voigt con un módulo de corte elástico y amortiguamiento viscoso. En el análisis lineal y no lineal del suelo se están considerando geometrías y modelos reológicos más complejos. El primero está siendo dirigido por considerar parametrizaciones más ricas del comportamiento linealizado y el segundo mediante el uso de multi-modo de los elementos de resorte-amortiguador con un eventual amortiguador fraccional. El uso del cálculo fraccional está motivado en gran parte por el hecho de que se requieren menos parámetros para lograr la aproximación exacta a los datos experimentales. Basándose en el modelo de Kelvin-Voigt, la viscoelasticidad es revisada desde su formulación más estándar a algunas descripciones más avanzada que implica la amortiguación dependiente de la frecuencia (o viscosidad), analizando los efectos de considerar derivados fraccionarios para representar esas contribuciones viscosas. Vamos a demostrar que tal elección se traduce en modelos más ricos que pueden adaptarse a diferentes limitaciones relacionadas con la potencia disipada, amplitud de la respuesta y el ángulo de fase. Por otra parte, el uso de derivados fraccionarios permite acomodar en paralelo, dentro de un análogo de Kelvin-Voigt generalizado, muchos amortiguadores que contribuyen a aumentar la flexibilidad del modelado para la descripción de los resultados experimentales. Obviamente estos modelos ricos implican muchos parámetros, los asociados con el comportamiento y los relacionados con los derivados fraccionarios. El análisis paramétrico de estos modelos requiere técnicas numéricas eficientemente capaces de simular comportamientos complejos. El método de la Descomposición Propia Generalizada (PGD) es el candidato perfecto para la construcción de este tipo de soluciones paramétricas. Podemos calcular off-line la solución paramétrica para el depósito de suelo, para todos los parámetros del modelo, tan pronto como tales soluciones paramétricas están disponibles, el problema puede ser resuelto en tiempo real, porque no se necesita ningún nuevo cálculo, el solucionador sólo necesita particularizar on-line la solución paramétrica calculada off-line, que aliviará significativamente el procedimiento de solución. En el marco de la PGD, parámetros de los materiales y los diferentes poderes de derivación podrían introducirse como extra-coordenadas en el procedimiento de solución. El cálculo fraccional y el nuevo método de reducción modelo llamado Descomposición Propia Generalizada han sido aplicado en esta tesis tanto al análisis lineal como al análisis no lineal de la respuesta del suelo utilizando un método lineal equivalente. ABSTRACT Studies of earthquakes over the last 50 years and the examination of dynamic soil behavior reveal that soil behavior is highly nonlinear and hysteretic even at small strains. Nonlinear behavior of soils during a seismic event has a predominant role in current site response analysis. One-dimensional seismic ground response analysis are often performed using equivalent-linear procedures, which require few, generally well-known parameters. Nonlinear analyses have the potential to more accurately simulate soil behavior, but their implementation in practice has been limited because of poorly documented and unclear parameter selection, as well as inadequate documentation of the benefits of nonlinear modeling relative to equivalent linear modeling. In soil analysis, soil behaviour is approximated as a Kelvin-Voigt solid with a elastic shear modulus and viscous damping. In linear and nonlinear analysis more complex geometries and more complex rheological models are being considered. The first is being addressed by considering richer parametrizations of the linearized behavior and the second by using multi-mode spring-dashpot elements with eventual fractional damping. The use of fractional calculus is motivated in large part by the fact that fewer parameters are required to achieve accurate approximation of experimental data. Based in Kelvin-Voigt model the viscoelastodynamics is revisited from its most standard formulation to some more advanced description involving frequency-dependent damping (or viscosity), analyzing the effects of considering fractional derivatives for representing such viscous contributions. We will prove that such a choice results in richer models that can accommodate different constraints related to the dissipated power, response amplitude and phase angle. Moreover, the use of fractional derivatives allows to accommodate in parallel, within a generalized Kelvin-Voigt analog, many dashpots that contribute to increase the modeling flexibility for describing experimental findings. Obviously these rich models involve many parameters, the ones associated with the behavior and the ones related to the fractional derivatives. The parametric analysis of all these models require efficient numerical techniques able to simulate complex behaviors. The Proper Generalized Decomposition (PGD) is the perfect candidate for producing such kind of parametric solutions. We can compute off-line the parametric solution for the soil deposit, for all parameter of the model, as soon as such parametric solutions are available, the problem can be solved in real time because no new calculation is needed, the solver only needs particularize on-line the parametric solution calculated off-line, which will alleviate significantly the solution procedure. Within the PGD framework material parameters and the different derivation powers could be introduced as extra-coordinates in the solution procedure. Fractional calculus and the new model reduction method called Proper Generalized Decomposition has been applied in this thesis to the linear analysis and nonlinear soil response analysis using a equivalent linear method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El daño cerebral adquirido (DCA) es un problema social y sanitario grave, de magnitud creciente y de una gran complejidad diagnóstica y terapéutica. Su elevada incidencia, junto con el aumento de la supervivencia de los pacientes, una vez superada la fase aguda, lo convierten también en un problema de alta prevalencia. En concreto, según la Organización Mundial de la Salud (OMS) el DCA estará entre las 10 causas más comunes de discapacidad en el año 2020. La neurorrehabilitación permite mejorar el déficit tanto cognitivo como funcional y aumentar la autonomía de las personas con DCA. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma donde se puedan diseñar tratamientos que sean intensivos, personalizados, monitorizados y basados en la evidencia. Ya que son estas cuatro características las que aseguran que los tratamientos son eficaces. A diferencia de la mayor parte de las disciplinas médicas, no existen asociaciones de síntomas y signos de la alteración cognitiva que faciliten la orientación terapéutica. Actualmente, los tratamientos de neurorrehabilitación se diseñan en base a los resultados obtenidos en una batería de evaluación neuropsicológica que evalúa el nivel de afectación de cada una de las funciones cognitivas (memoria, atención, funciones ejecutivas, etc.). La línea de investigación en la que se enmarca este trabajo de investigación pretende diseñar y desarrollar un perfil cognitivo basado no sólo en el resultado obtenido en esa batería de test, sino también en información teórica que engloba tanto estructuras anatómicas como relaciones funcionales e información anatómica obtenida de los estudios de imagen. De esta forma, el perfil cognitivo utilizado para diseñar los tratamientos integra información personalizada y basada en la evidencia. Las técnicas de neuroimagen representan una herramienta fundamental en la identificación de lesiones para la generación de estos perfiles cognitivos. La aproximación clásica utilizada en la identificación de lesiones consiste en delinear manualmente regiones anatómicas cerebrales. Esta aproximación presenta diversos problemas relacionados con inconsistencias de criterio entre distintos clínicos, reproducibilidad y tiempo. Por tanto, la automatización de este procedimiento es fundamental para asegurar una extracción objetiva de información. La delineación automática de regiones anatómicas se realiza mediante el registro tanto contra atlas como contra otros estudios de imagen de distintos sujetos. Sin embargo, los cambios patológicos asociados al DCA están siempre asociados a anormalidades de intensidad y/o cambios en la localización de las estructuras. Este hecho provoca que los algoritmos de registro tradicionales basados en intensidad no funcionen correctamente y requieran la intervención del clínico para seleccionar ciertos puntos (que en esta tesis hemos denominado puntos singulares). Además estos algoritmos tampoco permiten que se produzcan deformaciones grandes deslocalizadas. Hecho que también puede ocurrir ante la presencia de lesiones provocadas por un accidente cerebrovascular (ACV) o un traumatismo craneoencefálico (TCE). Esta tesis se centra en el diseño, desarrollo e implementación de una metodología para la detección automática de estructuras lesionadas que integra algoritmos cuyo objetivo principal es generar resultados que puedan ser reproducibles y objetivos. Esta metodología se divide en cuatro etapas: pre-procesado, identificación de puntos singulares, registro y detección de lesiones. Los trabajos y resultados alcanzados en esta tesis son los siguientes: Pre-procesado. En esta primera etapa el objetivo es homogeneizar todos los datos de entrada con el objetivo de poder extraer conclusiones válidas de los resultados obtenidos. Esta etapa, por tanto, tiene un gran impacto en los resultados finales. Se compone de tres operaciones: eliminación del cráneo, normalización en intensidad y normalización espacial. Identificación de puntos singulares. El objetivo de esta etapa es automatizar la identificación de puntos anatómicos (puntos singulares). Esta etapa equivale a la identificación manual de puntos anatómicos por parte del clínico, permitiendo: identificar un mayor número de puntos lo que se traduce en mayor información; eliminar el factor asociado a la variabilidad inter-sujeto, por tanto, los resultados son reproducibles y objetivos; y elimina el tiempo invertido en el marcado manual de puntos. Este trabajo de investigación propone un algoritmo de identificación de puntos singulares (descriptor) basado en una solución multi-detector y que contiene información multi-paramétrica: espacial y asociada a la intensidad. Este algoritmo ha sido contrastado con otros algoritmos similares encontrados en el estado del arte. Registro. En esta etapa se pretenden poner en concordancia espacial dos estudios de imagen de sujetos/pacientes distintos. El algoritmo propuesto en este trabajo de investigación está basado en descriptores y su principal objetivo es el cálculo de un campo vectorial que permita introducir deformaciones deslocalizadas en la imagen (en distintas regiones de la imagen) y tan grandes como indique el vector de deformación asociado. El algoritmo propuesto ha sido comparado con otros algoritmos de registro utilizados en aplicaciones de neuroimagen que se utilizan con estudios de sujetos control. Los resultados obtenidos son prometedores y representan un nuevo contexto para la identificación automática de estructuras. Identificación de lesiones. En esta última etapa se identifican aquellas estructuras cuyas características asociadas a la localización espacial y al área o volumen han sido modificadas con respecto a una situación de normalidad. Para ello se realiza un estudio estadístico del atlas que se vaya a utilizar y se establecen los parámetros estadísticos de normalidad asociados a la localización y al área. En función de las estructuras delineadas en el atlas, se podrán identificar más o menos estructuras anatómicas, siendo nuestra metodología independiente del atlas seleccionado. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la identificación automática de lesiones utilizando estudios de imagen médica estructural, concretamente estudios de resonancia magnética. Basándose en estos cimientos, se han abrir nuevos campos de investigación que contribuyan a la mejora en la detección de lesiones. ABSTRACT Brain injury constitutes a serious social and health problem of increasing magnitude and of great diagnostic and therapeutic complexity. Its high incidence and survival rate, after the initial critical phases, makes it a prevalent problem that needs to be addressed. In particular, according to the World Health Organization (WHO), brain injury will be among the 10 most common causes of disability by 2020. Neurorehabilitation improves both cognitive and functional deficits and increases the autonomy of brain injury patients. The incorporation of new technologies to the neurorehabilitation tries to reach a new paradigm focused on designing intensive, personalized, monitored and evidence-based treatments. Since these four characteristics ensure the effectivity of treatments. Contrary to most medical disciplines, it is not possible to link symptoms and cognitive disorder syndromes, to assist the therapist. Currently, neurorehabilitation treatments are planned considering the results obtained from a neuropsychological assessment battery, which evaluates the functional impairment of each cognitive function (memory, attention, executive functions, etc.). The research line, on which this PhD falls under, aims to design and develop a cognitive profile based not only on the results obtained in the assessment battery, but also on theoretical information that includes both anatomical structures and functional relationships and anatomical information obtained from medical imaging studies, such as magnetic resonance. Therefore, the cognitive profile used to design these treatments integrates information personalized and evidence-based. Neuroimaging techniques represent an essential tool to identify lesions and generate this type of cognitive dysfunctional profiles. Manual delineation of brain anatomical regions is the classical approach to identify brain anatomical regions. Manual approaches present several problems related to inconsistencies across different clinicians, time and repeatability. Automated delineation is done by registering brains to one another or to a template. However, when imaging studies contain lesions, there are several intensity abnormalities and location alterations that reduce the performance of most of the registration algorithms based on intensity parameters. Thus, specialists may have to manually interact with imaging studies to select landmarks (called singular points in this PhD) or identify regions of interest. These two solutions have the same inconvenient than manual approaches, mentioned before. Moreover, these registration algorithms do not allow large and distributed deformations. This type of deformations may also appear when a stroke or a traumatic brain injury (TBI) occur. This PhD is focused on the design, development and implementation of a new methodology to automatically identify lesions in anatomical structures. This methodology integrates algorithms whose main objective is to generate objective and reproducible results. It is divided into four stages: pre-processing, singular points identification, registration and lesion detection. Pre-processing stage. In this first stage, the aim is to standardize all input data in order to be able to draw valid conclusions from the results. Therefore, this stage has a direct impact on the final results. It consists of three steps: skull-stripping, spatial and intensity normalization. Singular points identification. This stage aims to automatize the identification of anatomical points (singular points). It involves the manual identification of anatomical points by the clinician. This automatic identification allows to identify a greater number of points which results in more information; to remove the factor associated to inter-subject variability and thus, the results are reproducible and objective; and to eliminate the time spent on manual marking. This PhD proposed an algorithm to automatically identify singular points (descriptor) based on a multi-detector approach. This algorithm contains multi-parametric (spatial and intensity) information. This algorithm has been compared with other similar algorithms found on the state of the art. Registration. The goal of this stage is to put in spatial correspondence two imaging studies of different subjects/patients. The algorithm proposed in this PhD is based on descriptors. Its main objective is to compute a vector field to introduce distributed deformations (changes in different imaging regions), as large as the deformation vector indicates. The proposed algorithm has been compared with other registration algorithms used on different neuroimaging applications which are used with control subjects. The obtained results are promising and they represent a new context for the automatic identification of anatomical structures. Lesion identification. This final stage aims to identify those anatomical structures whose characteristics associated to spatial location and area or volume has been modified with respect to a normal state. A statistical study of the atlas to be used is performed to establish which are the statistical parameters associated to the normal state. The anatomical structures that may be identified depend on the selected anatomical structures identified on the atlas. The proposed methodology is independent from the selected atlas. Overall, this PhD corroborates the investigated research hypotheses regarding the automatic identification of lesions based on structural medical imaging studies (resonance magnetic studies). Based on these foundations, new research fields to improve the automatic identification of lesions in brain injury can be proposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo de investigación trata de aportar luz al estudio del tiempo de reacción (TR) en velocistas con y sin discapacidad auditiva desde las Ciencias del Deporte. El planteamiento del presente estudio surgió al cuestionarnos la existencia de las diferencias en cuanto al TR visual y auditivo aplicado a velocistas con y sin discapacidad auditiva, pensando en el desarrollo futuro de competiciones inclusivas entre ambos colectivos. Por ello, este estudio trata de resolver las dificultades que los velocistas con discapacidad se encuentran habitualmente en las competiciones. A priori, los atletas con discapacidad auditiva compiten en inferioridad de condiciones como consecuencia de una salida que no parece la más adecuada para ellos (desde los tacos, han de mirar hacia la pistola del juez o el movimiento de un rival). El documento se divide en tres partes. En la primera parte se realiza la pertinente revisión del marco teórico y justificación del estudio. La segunda parte se centra en los objetivos de la investigación, el material y el método, donde se muestran los resultados, discusión y conclusiones del estudio realizado, así como las limitaciones del presente trabajo y sus futuras líneas de investigación. La tercera parte corresponde a la bibliografía y la cuarta parte a los anexos. En la primera parte, presentamos el marco teórico compuesto por cinco capítulos organizan la fundamentación que hemos realizado como revisión sobre los aspectos más destacados del TR, determinado por las características de la tarea y otros factores que influyen en el TR como objeto de nuestro estudio. Después exponemos los principales aspectos estructurales y funcionales del sistema nervioso (SN) relacionados con el TR visual y auditivo. Tras ello se expone la realidad del deporte para personas con discapacidad auditiva, indagando en sus peculiaridades y criterios de elegibilidad que tiene ese colectivo dentro del ámbito deportivo. A continuación abordamos el estudio de la salida de velocidad en el atletismo, como aspecto clave que va a guiar nuestra investigación, especialmente los parámetros determinantes en la colocación de los tacos de salida para atletas con y sin discapacidad auditiva, la posición de salida y la propia colocación de los estímulos en dicha situación. Es la segunda parte se desarrolla el trabajo de investigación que tiene como objetivos estudiar los valores de TR visual simple manual, TR en salida de tacos y los tiempos de desplazamiento a los 10m y 20m de velocistas con y sin discapacidad auditiva, así como analizar las posibles diferencias en TR según posición y tipo de estímulo luminoso, respecto a ambos grupos de atletas. Como tercer objetivo de estudio se evalúa cualitativamente, por parte de los propios atletas, el dispositivo luminoso utilizado. La toma de datos de este estudio se llevó a cabo entre los meses de febrero y mayo del 2014, en el módulo de atletismo del Centro de Alto Rendimiento Joaquín Blume (Madrid), con dos grupos de estudio, uno de 9 velocistas con discapacidad auditiva (VDA), conformando éstos el 60% de toda la población en España, según el número de las licencias de la FEDS en la modalidad de atletismo (velocistas, pruebas de 100 y 200 m.l.), en el momento del estudio, y otro de 13 velocistas sin discapacidad (VsDA) que se presentaron de manera voluntaria con unos mismos criterios de inclusión para ambos grupos. Para la medición y el registro de los datos se utilizaron materiales como hoja de registro, Medidor de Tiempo de Reacción (MTR), tacos de salida, ReacTime®, dispositivo luminoso conectado a los tacos de salida, células fotoeléctricas, ordenador y software del ReacTime, y cámara de video. La metodología utilizada en este estudio fue de tipo correlacional, analizando los resultados del TR simple manual según vía sensitiva (visual y auditiva) entre los dos grupos de VDA y VsDA. También se estudiaron los TR desde la salida de tacos en función de la colocación del dispositivo luminoso (en el suelo y a 5 metros, vía visual) y pistola de salida atlética (vía auditiva) así como el tiempo de desplazamiento a los 10m (t10m) y 20m (t20m) de ambos grupos de velocistas. Finalmente, se desarrolló y llevó a cabo un cuestionario de evaluación por parte de los atletas VDA con el objetivo de conocer el grado de satisfacción después de haber realizado la serie de experimentos con el dispositivo luminoso y adaptado para sistemas de salida en la velocidad atlética. Con el objetivo de comprobar la viabilidad de la metodología descrita y probar en el contexto de análisis real el protocolo experimental, se realizó un estudio piloto con el fin de conocer las posibles diferencias del TR visual desde los tacos de salida en velocistas con discapacidad auditiva, usando para dicha salida un estímulo visual mediante un dispositivo luminoso coordinado con la señal sonora de salida (Soto-Rey, Pérez-Tejero, Rojo-González y Álvarez-Ortiz, 2015). En cuanto a los procedimientos estadísticos utilizados, con el fin de analizar la distribución de los datos y su normalidad, se aplicó la prueba de Kolmogorov-Smirnof, dicha prueba arrojó resultados de normalidad para todas las variables analizadas de las situaciones experimentales EA, EVsuelo y EV5m. Es por ello que en el presente trabajo de investigación se utilizó estadística paramétrica. Como medidas descriptivas, se calcularon el máximo, mínimo, media y la desviación estándar. En relación a las situaciones experimentales, para estudiar las posibles diferencias en las variables estudiadas dentro de cada grupo de velocistas (intragrupo) en la situación experimental 1 (MTR), se empleó una prueba T de Student para muestras independientes. En las situaciones experimentales 2, 3 y 4, para conocer las diferencias entre ambos grupos de velocistas en cada situación, se utilizó igualmente la prueba T para muestras independientes, mientras que un ANOVA simple (con post hoc Bonferroni) se utilizó para analizar las diferencias para cada grupo (VDA y VsDA) por situación experimental. Así mismo, se utilizó un ANOVA de medidas repetidas, donde el tipo de estímulo (situación experimental) fue la variable intra-grupo y el grupo de velocistas participantes (VDA y VsDA) la entre-grupo, realizándose esta prueba para evaluar en cada situación el TR, t1m0 y t20m y las interacciones entre las variables. Para el tratamiento estadístico fue utilizado el paquete estadístico SPSS 18.0 (Chicago, IL, EEUU). Los niveles de significación fueron establecidos para un ≤0.05, indicando el valor de p en cada caso. Uno de los aspectos más relevantes de este trabajo es la medición en diferentes situaciones, con instrumentación distinta y con situaciones experimentales distintas, del TR en velocistas con y sin discapacidad auditiva. Ello supuso el desarrollo de un diseño de investigación que respondió a las necesidades planteadas por los objetivos del estudio, así como el desarrollo de instrumentación específica (Rojo-Lacal, Soto-Rey, Pérez-Tejero y Rojo-González, 2014; Soto-Rey et al., 2015) y distintas situaciones experimentales que reprodujeran las condiciones de práctica y competición real de VsDA y VDA en las pruebas atléticas de velocidad, y más concretamente, en las salidas. El análisis estadístico mostró diferencias significativas entre los estímulos visuales y sonoros medidos con el MTR, siendo menor el TR ante el estímulo visual que ante el sonoro, tanto para los atletas con discapacidad auditiva como para los que no la presentaron (TR visual, 0.195 s ± 0.018 vs 0.197 s ± 0.022, p≤0.05; TR sonoro 0.230 s ± 0.016 vs 0.237 s ± 0.045, p≤0.05). Teniendo en cuenta los resultados según población objeto de estudio y situación experimental, se registraron diferencias significativas entre ambas poblaciones, VDA y VsDA, siendo más rápidos los VDA que VsDA en la situación experimental con el estímulo visual en el suelo (EVsuelo, 0.191 ±0.025 vs 0.210 ±0.025, p≤0.05, respectivamente) y los VsDA en la situación experimental con el estímulo auditivo (EA, 0.396 ±0.045 vs 0.174 ±0.021, p≤0.05), aunque sin diferencias entre ambos grupos en la situación experimental con el estímulo visual a 5m de los tacos de salida. Es de destacar que en el TR no hubo diferencias significativas entre EA para VsDA y EVsuelo para VDA. El ANOVA simple registró diferencias significativas en todas las situaciones experimentales dentro de cada grupo y para todas las variables, por lo que estadísticamente, las situaciones experimentales fueron diferentes entre sí. En relación al de ANOVA medidas repetidas, la prueba de esfericidad se mostró adecuada, existiendo diferencias significativas en las varianzas de los pares de medias: el valor de F indicó que existieron diferencias entre las diferentes situaciones experimentales en cuanto a TR, incluso cuando éstas se relacionaban con el factor discapacidad (factor interacción, p≤0,05). Por ello, queda patente que las situaciones son distintas entre sí, también teniendo en cuenta la discapacidad. El η2 (eta al cuadrado, tamaño del efecto, para la interacción) indica que el 91.7% de la variación se deben a las condiciones del estudio, y no al error (indicador de la generalización de los resultados del estudio). Por otro lado, la evaluación del dispositivo luminoso fue positiva en relación a la iluminación, comodidad de uso, ubicación, color, tamaño, adecuación del dispositivo y del equipamiento necesario para adaptar al sistema de salida. La totalidad de los atletas afirman rotundamente que el dispositivo luminoso favorecería la adaptación al sistema de salida atlética para permitir una competición inclusiva. Asimismo concluyen que el dispositivo luminoso favorecería el rendimiento o mejora de marca en la competición. La discusión de este estudio presenta justificación de las diferencias demostradas que el tipo de estímulo y su colocación son clave en el TR de esta prueba, por lo que podríamos argumentar la necesidad de contar con dispositivos luminosos para VDA a la hora de competir con VsDA en una misma prueba, inclusiva. El presente trabajo de investigación ha demostrado, aplicando el método científico, que el uso de estos dispositivos, en las condiciones técnicas y experimentales indicadas, permite el uso por parte del VDA, usando su mejor TR visual posible, que se muestra similar (ns) al TR auditivo de VsDA, lo que indica que, para competiciones inclusivas, la salida usando el semáforo (para VDA) y la salida habitual (estímulo sonoro) para VsDA, puede ser una solución equitativa en base a la evidencia demostrada en este estudio. De esta manera, y como referencia, indicar que la media de los TR de los velocistas en la final de los 100 m.l. en los Juegos Olímpicos de Londres 2012 fue de 0.162 ±0.015. De esta manera, creemos que estos parámetros sirven de referencia a técnicos deportivos, atletas y futuros trabajos de investigación. Las aplicaciones de este trabajo permitirán modificaciones y reflexiones en forma de apoyo al entrenamiento y la competición para el entrenador, o juez de salida en la competición que, creemos, es necesaria para proporcionar a este colectivo una atención adecuada en las salidas, especialmente en situaciones inclusivas de práctica. ABSTRACT This research aims to study of reaction time (RT) in sprinters with and without hearing impairment from the Sports Science perspective. The approach of this study came asking whether there were differences in the visual and auditory RT applied to sprinters with and without hearing impairment, thinking about the future development of inclusive competition between the two groups. Therefore, this study attempts to resolve the difficulties commonly founded by sprinters with hearing impairments during competitions. A priori, sprinters with hearing impairment would compete in a disadvantage situation as a result of the use of a staring signal not suitable for them (from the blocks, they have to look to the judge´s pistol or the movement of an opponent). The document is divided into three parts. In the first part of the review of relevant theoretical framework and justification of the study is presented. The second part focuses on the research objectives, material and method, where results, discussion and conclusions of the study, as well as the limitations of this study and future research are presented. The third part contains references and the fourth, annexes. In the first part, we present the theoretical framework consisting of five chapters, organizing the state of the art of RT, determined by the characteristics of the task and other factors that influence the RT as object of our study. Then we present the main structural and functional aspects of the nervous system associated with visual and auditory RT. After that, sport for people with hearing disabilities is presented, investigating its peculiarities and eligibility criteria is that group within the deaf sport. Finally, we discuss the theoretical foundation of the study of start speed in athletics as a key aspect that will guide our research, especially the determining parameters in placing the starting blocks for athletes with and without hearing impairment, the starting position and the actual placement of stimuli in such a situation. The second part of the research aims to study the values of simple manual visual RT, RT start from blocks and travel times up to 10m and 20m of sprinters with and without hearing impairment, and to analyze possible differences in RT as position and type of light stimulus with respect to both groups of athletes. The third objective of the study is to assess the pertinence of the lighting device developed and used in the study, in a qualitatively way by athletes themselves. Data collection for this study was carried out between February and May 2014, in the Athletics module at the High Performance Centre Joaquin Blume (Madrid) with the two study groups: 9 sprinters with hearing impairments(VDA, reaching 60% of the population in Spain, according to the number of licenses for athletics at FEDS: sprint, 100 and 200 m.l., at the time of the study), and another 13 sprinters without disability (VsDA) who voluntarily presented themselves, with same inclusion criteria for both groups. For measuring and data collection materials such as recording sheet, gauge reaction time (MTR), starting blocks, ReacTime®, luminous device connected to the starting blocks, photocells, computer and software ReacTime, and video camera were used. The methodology used in this study was correlational, analyzing the results of simple manual RT according sensory pathway (visual and auditory) between the two groups (VsDA and VDA). Also auditory and visual RT was studied depending the placement of the start light signal (on the ground and 5 meters, visual pathway) and athletic start gun signal (auditory pathway, conventional situation) and travel time up to 10m (t10m) and 20m (t20m) for both groups of sprinters. Finally, we developed and carried out an evaluation questionnaire for VDA athletes in order to determine the degree of satisfaction after completing the series of experiments with lighting device and adapted to start systems in athletic speed. In order to test the feasibility of the methodology described and tested in the context of real analysis of the experimental protocol, a pilot study in order to know the possible differences visual RT from the starting blocks in sprinters with hearing impairments was performed, to said output using a visual stimulus coordinated by a lighting device with sound output signal (Soto-Rey Perez-Tejero, Rojo-González y Álvarez-Ortiz, 2015). For the statistical procedures, in order to analyze the distribution of the data and their normality, Kolmogorov-Smirnov test was applied, this test yielded normal results for all variables analyzed during EA, EVsuelo and EV5m experimental situations. Parametric statistics were used in this research. As descriptive measures, the maximum, minimum, mean and standard deviation were calculated. In relation to experimental situations, to study possible differences in the variables studied in each group sprinters (intragroup) in the experimental situation 1 (MTR), a Student t test was used for independent samples. Under the experimental situations 2, 3 and 4, to know the differences between the two groups of sprinters in every situation, the T test for independent samples was used, while a simple ANOVA (with post hoc Bonferroni) was used to analyze differences for each group (VDA and VsDA) by experimental situation. Likewise, a repeated measures ANOVA, where the type of stimulus (experimental situation) was variable intra-group and participants sprinters group (VDA and VsDA) the variable between-group, was performed to assess each situation for RT, t10m and t20m, and also interactions between variables. For the statistical treatment SPSS 18.0 (Chicago, IL, USA) was used. Significance levels were set for  ≤0.05, indicating the value of p in each case. One of the most important aspects of this work is the measurement of RT in sprinters with and without hearing impairment in different situations, with different instrumentation and different experimental situations. This involved the development of a research design that responded to the needs raised by the study aims and the development of specific instrumentation (Rojo-Lacal, Soto-Rey Perez-Tejero and Rojo-Gonzalez, 2014; Soto-Rey et al., 2015) and different experimental situations to reproduce the conditions of practical and real competition VsDA and VDA in athletic sprints, and more specifically, at the start. Statistical analysis showed significant differences between the visual and sound stimuli measured by the MTR, with lower RT to the visual stimulus that for sound, both for athletes with hearing disabilities and for those without (visual RT, 0.195 s ± 0.018 s vs 0.197 ± 0.022, p≤0.05; sound RT 0.230 s ± 0.016 vs 0.237 s ± 0.045, p≤0.05). Considering the results according to study population and experimental situation, significant differences between the two populations, VDA and VsDA were found, being faster the VDA than VsDA in the experimental situation with the visual stimulus on the floor (EVsuelo, recorded 0.191 s ± 0.025 vs 0.210 s ± 0.025, p≤0.05, respectively) and VsDA in the experimental situation with the auditory stimulus (EA, 0.396 s ± 0.045 vs 0.174 s ± 0.021, p≤0.05), but no difference between groups in the experimental situation with the 5m visual stimulus to the starting blocks. It is noteworthy that no significant differences in EA and EVsuelo between VsDA to VDA, respectively, for RT. Simple ANOVA showed significant differences in all experimental situations within each group and for all variables, so statistically, the experimental situations were different. Regarding the repeated measures ANOVA, the sphericity test showed adequate, and there were significant differences in the variances of the pairs of means: the value of F indicated that there were differences between the different experimental situations regarding RT, even when they were related to the disability factor (factor interaction, p≤0.05). Therefore, it is clear that the situations were different from each other, also taking into account impairment. The η2 (eta squared, effect size, for interaction) indicates that 91.7% of the variation is due to the conditions of the study, not by error (as indicator of the generalization potential of the study results). On the other hand, evaluation of the light signal was positively related to lighting, ease of use, location, color, size, alignment device and equipment necessary to adapt the start system. All the athletes claim strongly in favor of the lighting device adaptation system to enable athletic competition inclusive. Also they concluded that light device would enhance performance or would decrease their RT during the competition. The discussion of this study justify the type of stimulus and the start light positioning as key to the RT performance, so that we could argue the need for lighting devices for VDA when competing against VsDA the same competition, inclusive. This research has demonstrated, applying the scientific method, that the use of these devices, techniques and given experimental conditions, allows the use of the VDA, using his best visual RT, shown similar (ns) auditory RT of VsDA, indicating that for inclusive competitions, the start signal using the light (for VDA) and the usual start (sound stimulus) to VsDA can be an equitable solution based on the evidence shown in this study. Thus, and as a reference, indicate that the average of the RT sprinters in the 100 m. final at the 2012 Summer Olympic Games was 0.162 s ± 0.015. Thus, we believe that these parameters become a reference to sports coaches, athletes and future research. Applications of this work will allow modifications and reflections in the form of support for training and competition for the coach, or judge, as we believe is necessary to provide adequate attention to VDA in speed starts, especially in inclusive practice situations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Administração Financeira surge no início do século XIX juntamente com o movimento de consolidação das grandes empresas e a formação dos mercados nacionais americano enquanto que no Brasil os primeiros estudos ocorrem a partir da segunda metade do século XX. Desde entãoo país conseguiu consolidar alguns centros de excelência em pesquisa, formar grupo significativo de pesquisadores seniores e expandir as áreas de pesquisa no campo, contudo, ainda são poucos os trabalhos que buscam retratar as características da produtividade científica em Finanças. Buscando contribuir para a melhor compreensão do comportamento produtivo dessa área a presente pesquisa estuda sua produção científica, materializada na forma de artigos digitais, publicados em 24 conceituados periódicos nacionais classificados nos estratos Qualis/CAPES A2, B1 e B2 da Área de Administração, Ciências Contábeis e Turismo. Para tanto são aplicadas a Lei de Bradford, Lei do Elitismo de Price e Lei de Lotka. Pela Lei de Bradford são identificadas três zonas de produtividade sendo o núcleo formado por três revistas, estando uma delas classificada no estrato Qualis/CAPES B2, o que evidencia a limitação de um recorte tendo como único critério a classificação Qualis/CAPES. Para a Lei do Elitismo de Price, seja pela contagem direta ou completa, não identificamos comportamento de uma elite semelhante ao apontado pela teoria e que conta com grande número de autores com apenas uma publicação.Aplicando-se o modelo do Poder Inverso Generalizado, calculado por Mínimos Quadrados Ordinários (MQO), verificamos que produtividade dos pesquisadores, quando feita pela contagem direta, se adequa àquela definida pela Lei de Lotka ao nível de α = 0,01 de significância, contudo, pela contagem completa não podemos confirmar a hipótese de homogeneidade das distribuições, além do fato de que nas duas contagens a produtividade analisada pelo parâmetro n é maior que 2 e, portanto, a produtividade do pesquisadores de finanças é menor que a defendida pela teoria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação teve como objetivo articular um estudo do determinante diante das formas possessivas com base em um corpus histórico jornalístico composto de anúncios e cartas de leitores e redatores extraídos de jornais paulistas do século XIX. Focalizamos as formas possessivas seu/seus/sua/suas pré-nominais, observando a presença versus ausência do artigo definido e seus diferentes contextos. Nossas hipóteses buscaram resolver algumas questões teóricas relacionadas à estrutura do DP possessivo no PB, entre elas a da opcionalidade aparente do determinante e a da variação na realização de Número no interior da estrutura. Desenvolvemos respostas e análises às questões a partir da associação de dois quadros teóricos: a teoria dos Princípios & Parâmetros (CHOMSKY 1981, 1986) incluindo alguns refinamentos do Programa Minimalista (CHOMSKY 1995, 1998, 2000, 2001, 2004), e os pressupostos elaborados dentro da Sociolinguística Variacionista (cf. WEINREICH, LABOV e HERZOG (WLH) (1968); LABOV (1972, 1994, 2000)). Consideramos também estudos posteriores que conciliaram a mudança paramétrica internalista da língua (ROBERTS (2007)) com fatores extragramaticais que determinam o percurso das formas linguísticas no tempo histórico (KROCH (1989, 1994, 2000)). Para o estudo da estrutura do DP possessivo usamos a análise sobre os Bare Nouns de Cyrino & Espinal (2014). Os resultados obtidos mostraram que a média geral de ausência do determinante diante de DPs possessivos se manteve a mesma nos dois períodos analisados, configurando uma variação estável. Concluímos que não houve, portanto, indícios de oscilação no uso de uma ou outra variante que pudesse demonstrar o avanço de uma delas em detrimento de outra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hipodermóclise (HDC) é uma importante técnica alternativa para a administração de medicamentos e fluidos pela via subcutânea. É usada com frequência para o controle dos sintomas em pacientes em cuidados paliativos com dificuldade de acesso venoso e que são incapazes de tolerar medicação oral. No entanto, raros estudos abordaram o uso da HDC de uma forma global, para reposição hidroeletrolítica e terapia medicamentosa, tanto na forma contínua quanto intermitente, observando detalhes e complicações do seu uso. Os objetivos deste estudo incluíram caracterizar o uso da HDC para administração de medicamentos, soluções e eletrólitos e avaliar as possíveis complicações locais, identificando também outros fatores que influenciam sua ocorrência. Estudo observacional prospectivo com coleta de dados em prontuário e acompanhamento diário de pacientes internados com câncer avançado, da equipe de Cuidados Paliativos do Instituto do Câncer do Estado de São Paulo (ICESP) em uso de HDC, verificando local de punção, medicamentos administrados e possíveis complicações, acompanhando os detalhes de seu uso. A análise estatística não-paramétrica e método de regressão logística foram realizados. Foram acompanhados 99 pacientes com 243 punções, das quais 166 (68,3%) em coxa e 46 (18,9%) em abdome. Os medicamentos mais utilizados foram morfina em 122 (50,2%) punções, seguido de dipirona em 118 (48,6%) e dexametasona em 86 (35,4%). A solução mais prescrita foi a glicofisiológica em 38 (15,6%) punções, pelo seu aporte calórico. 13,6% das punções (33 de 243) tiveram complicações, sendo apenas seis casos maiores (edema). Complicações ocorreram mais frequentemente até o segundo dia da punção e foram associadas com o número (p=0,007) e o volume (p=0,042) de medicamentos administrados e também com a solução glicofisiológica (p=0,003) e os eletrólitos cloreto de potássio (p=0,037) e cloreto de sódio (p=0,013). Este estudo permitiu o conhecimento de fatores associados a complicações e propõe algumas recomendações, como: individualização da terapia, especialmente relacionada com o volume de escolha, número de medicamentos administrados e evitar a adição de eletrólitos na solução glicofisiológica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: Em pacientes com síndromes isquêmicas miocárdicas instáveis (SIMI), tanto a hiperatividade simpática quanto a resposta inflamatória exacerbada se associam a pior prognóstico. No entanto, ainda é desconhecido se existe alguma correlação entre esses dois marcadores de evolução desfavorável. OBJETIVOS: Correlacionar a atividade nervosa simpática muscular com marcadores inflamatórios nas fases precoce e tardia de pacientes portadores de SIMI. MÉTODOS: Pacientes hospitalizados com diagnóstico de SIMI e evolução favorável foram incluídos de forma prospectiva desde que apresentassem idade entre 18 e 65 anos e aterosclerose coronária comprovada por cinecoronariografia. Logo após a inclusão no estudo foram coletadas informações basais, e no quarto dia (± 1 dia) de internação os pacientes foram submetidos à avaliação da ANSM e coleta concomitante de amostra sanguínea para dosagem de proteína CReativa ultrassensível (PCR-us), interleucina-6 (IL6), e fosfolipase A2 associada à lipoproteína (Lp-PLA2). ANSM foi obtida pela técnica de microneurografia do nervo fibular. As medidas e respectivas análises de correlação foram repetidas em 1, 3 e 6 meses após a hospitalização. Correlações entre ANSM e marcadores inflamatórios foram analisadas por meio do teste de Pearson (variáveis de distribuição não-paramétrica foram transformadas logaritmicamente). Modelos de regressão linear múltipla foram criados para avaliar os efeitos independentes. RESULTADOS: Foram estudados 34 pacientes com idade média de 51,7±7,0 anos, sendo 79,4% do sexo masculino. A prevalência de hipertensão arterial foi de 64,7%, diabetes mellitus 8,8%, e doença arterial coronária prévia de 20,6%. A apresentação foi IAM com supradesnível de ST em 18 pacientes (52,9%), IAM sem supra de ST em 14 (41,2%) e angina instável em 02 pacientes (5,9%). Tanto ANSM quanto biomarcadores inflamatórios estavam elevados durante a fase aguda das SIMI e diminuíram ao longo do tempo. Na fase hospitalar, a mediana da PCR-us foi 17,75 (8,57; 40,15) mg/L, e IL-6 6,65 (4,45; 8,20) pg/ml, a Lp- PLA2 média foi 185,8 ± 52,2 nmol/min/ml, e ANSM média 64,2 ± 19,3 impulsos/100bpm. Após 6 meses, houve diminuição significativa de todas essas variáveis quando comparadas com a fase hospitalar. Entretanto, não houve correlação significativa entre a atividade simpática e qualquer dos marcadores inflamatórios analisados, em nenhuma das fases analisadas (p > 0,05), Por outro lado, ANSM se correlacionou independentemente com níveis de CKMB na fase aguda (p=0,027), e com fração de ejeção do VE na fase crônica (p=0,026). CONCLUSÃO: Apesar do aumento inicial dos níveis de marcadores inflamatórios e da atividade simpática em pacientes com SIMI, não houve correlação significativa entre esses parâmetros em nenhuma das fases analisadas, sugerindo que as alterações dessas variáveis estariam relacionadas a diferentes vias fisiopatológicas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma nova metodologia para otimizar carteiras de ativos financeiros. A metodologia proposta, baseada em interpoladores universais tais quais as Redes Neurais Artificiais e a Krigagem, permite aproximar a superfície de risco e consequentemente a solução do problema de otimização associado a ela de forma generalizada e aplicável a qualquer medida de risco disponível na literatura. Além disto, a metodologia sugerida permite que sejam relaxadas hipóteses restritivas inerentes às metodologias existentes, simplificando o problema de otimização e permitindo que sejam estimados os erros na aproximação da superfície de risco. Ilustrativamente, aplica-se a metodologia proposta ao problema de composição de carteiras com a Variância (controle), o Valor-em-Risco (VaR) e o Valor-em-Risco Condicional (CVaR) como funções objetivo. Os resultados são comparados àqueles obtidos pelos modelos de Markowitz e Rockafellar, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo consiste en estimar la eficiencia productiva y de escala con la que operan los intermediarios del sector minorista español de distribución turístico. Adicionalmente, se pretende examinar los determinantes de la eficiencia en términos de la integración vertical, concentración horizontal, tamaño y resultados de las entidades. La metodología aplicada se apoya en diversas técnicas de medición de eficiencia (paramétrica de naturaleza estocástica y no paramétrica del Análisis Envolvente de Datos, DEA), así como en modelos tobit para conocer el impacto de los factores del mercado y de la empresa sobre los niveles de eficiencia. La aplicación empírica realizada en una muestra de 50 agencias de viaje de nuestro país evidencia, por un lado, unos elevados índices de ineficiencia técnica y de escala, destacando en el último caso los rendimientos decrecientes; y por otro, que el tamaño y el ROA son los factores determinante de la eficiencia de escala, mientras que la concentración del mercado explica la eficiencia técnica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The objective of this paper is to estimate technical efficiency in retailing; and the influence of inventory investment, wage levels, and firm age on this efficiency. We use the output supermarket chains’ sales volume, calculated isolating the retailer price effect on its sales revenue. This output allows us to estimate a strictly technical concept of efficiency. The methodology is based on the estimation of a stochastic parametric function. The empirical analyses applied to panel data on a sample of 42 supermarket chains between 2000 and 2002 show that inventory investment and wage level have an impact on technical efficiency. In comparison, the effect of these factors on efficiency calculated through a monetary output (sales revenue) shows some differences that could be due to aspects related to product prices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo consiste en estimar la eficiencia técnica con la que operan los intermediarios del sector de distribución comercial español, así como sus factores determinantes en términos del tamaño, nivel de salarios y antigüedad de la empresa. Para ello, se utiliza un output no monetario, calculado a partir del volumen de ventas y del índice de precios de cada cadena de establecimientos comerciales, que permite considerar un concepto de eficiencia estrictamente técnico (centrado en los procesos productivos y la organización de las actividades de la empresa). La metodología se apoya en la estimación de una frontera paramétrica estocástica. La aplicación empírica realizada en una muestra de 64 cadenas de supermercados en 2001 evidencia altos niveles de ineficiencia técnica. Además, el tamaño de la empresa, la superficie media del establecimiento y el nivel de salarios ejercen un impacto positivo sobre la eficiencia técnica.