897 resultados para SAMPLE-SIZE


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Aunque se han logrado importantes avances en estudios de laboratorio con diseños experimentales poco representativos (e.g., Farrow y Reid, 2012; Nieminen, Piirainen, Salmi, y Linnamo, 2013), a día de hoy, todavía se desconoce a cabalidad cómo los jugadores de tenis de diferente nivel de pericia calibran o ajustan sus movimientos a las demandas espacio-temporales presentes en la tarea de resto de un primer servicio. ! Escasos trabajos se han llevado a cabo in situ y a la mayoría se les puede cuestionar algún aspecto de la metodología empleada. Así pues, en varios estudios la frecuencia de grabación ha sido limitada (e.g., a 50 Hz en Jackson y Gudgeon, 2004; Triolet, Benguigui, Le Runigo y Williams, 2013), o la velocidad del saque ha sido visiblemente inferior a la habitual (cf. Carboch, Süss y Kocib, 2014; Williams, Singer y Weigelt, 1998). También, en algunos estudios los participantes experimentados no han sido jugadores de nivel internacional (e.g., Avilés, Ruiz, Sanz y Navia, 2014), y el tamaño muestral ha sido muy pequeño (e.g., Gillet, Leroy, Thouvarecq, Mégrot y Stein, 2010). ! Además, en los diferentes trabajos se han utilizado una diversidad de métodos e instrumentos de medida y los criterios de codificación del inicio de los movimientos y de las respuestas han diferido; como consecuencia el lapso visomotor de respuesta (LVMr) ha sido muy dispar variando considerablemente de 198 a 410 ms. Considerando los inconvenientes señalados anteriormente, el presente estudio tuvo como objetivo determinar un modelo técnico de regulación temporal de los movimientos y de la respuesta del restador, tomando en cuenta el flujo continuo de información proporcionado por el sacador. Para ello, se realizó un análisis cronométrico de los restos de doce jugadores de diferente nivel deportivo (seis internacionales y seis nacionales) que respondieron de forma natural enviando sus devoluciones hacia las dianas. Se grabaron las acciones de los restadores y sacadores con una cámara Casio Exilim Pro Ex-F1 de alta velocidad (300 Hz) y luego se realizó un análisis imagen por imagen cada 3.33 ms. Una vez obtenidos los datos de los vídeos se realizaron análisis con las pruebas de ANOVA de un factor, ANCOVA con la velocidad del saque como covariable, U de Mann-Whitney y Chi-cuadrado de Pearson. En cuanto a la regulación del movimiento hasta el momento del despegue, los jugadores internacionales iniciaron sus acciones antes que los jugadores nacionales lo que podría indicar una mejor preparación al ejecutar los movimientos como reflejo del nivel de pericia. Los jugadores internacionales iniciaron la elevación del pie posterior a -293 ms y los jugadores nacionales a -202 ms. Todas estas acciones se fueron enlazando unas con otras y fue en el momento del impacto del sacador donde los restadores demostraron una remarcable coordinación perceptivo-motriz. Por consiguiente, los jugadores internacionales despegaron e iniciaron el vuelo a tan solo -6.5 ms del impacto y los jugadores nacionales lo hicieron más tarde a +19.5 ms. A lo largo de la secuencia temporal, todo parece indicar que las informaciones que utilizan los restadores interactúan entre sí; información más temprana y menos fiable para anticipar o moverse antes e información más tardía y más fiable para regular la temporalización de las acciones. Los restadores de nivel internacional y nacional anticiparon a nivel espacial en un bajo porcentaje (7.7% vs. 13.6%) y en tiempos similares (-127 vs. -118 ms) sugiriendo que la utilización de variables ópticas tempranas y menos fiables solo se produce en contadas ocasiones. Por otra parte, estos datos se relacionan con una gran precisión en la respuesta ya que tanto los jugadores internacionales como los nacionales demostraron un alto porcentaje de acierto al responder (95.4% vs. 96.7%). Se había señalado que los jugadores internacionales y nacionales se diferenciarían en el tiempo de caída (i.e., aterrizaje) del primer pie del salto preparatorio, sin embargo ese efecto no fue encontrado (128 vs. 135 ms). Tampoco se hallaron diferencias en el porcentaje de caída con el pie contrario a la dirección de la pelota (58% vs. 62%). Donde sí ambos grupos se diferenciaron fue en el tiempo de caída del segundo pie (147 vs. 168 ms). Esta diferencia de 21 ms fue crucial y fue una prueba de la mayor rapidez de los jugadores internacionales; sugiriendo que ésta acción se podría relacionar con el momento del inicio de la respuesta. Aunque los jugadores internacionales hayan demostrado ser más rápidos en relación con sus capacidades funcionales, ambos grupos no se diferenciaron en todas las variables relacionadas con el LVMr. Ellos no utilizaron esos valiosos milisegundos ganados en el instante de la caída del segundo pie para responder más pronto, ya que el LVMr del miembro superior fue el mismo para ambos grupos (179 vs. 174 ms). Es como si hubiesen tenido todo el tiempo del mundo para seguir ajustando sus acciones hasta el propio golpeo. Además, estos tiempos largos sugieren que en la gran mayoría de los restos la información clave que determinó la respuesta fue detectada (extraída) en momentos cercanos al golpeo del sacador y en la primera parte del vuelo de la pelota. Asimismo, se constató que en general el LVMr se ve influenciado por el tipo de información utilizada. De esta manera, cuando se tomaron en cuenta los ensayos en los que hubo anticipación espacial reflejados en el LVMr del cuerpo entero los tiempos disminuyeron (152 vs. 136 ms). Por otra parte, existieron ocasiones (13%) en los que tanto los jugadores internacionales como los nacionales respondieron tarde recibiendo saques directos (208 vs. 195 ms). Es muy posible que en estos casos los jugadores hayan tenido problemas para detectar la información respondiendo fuera de los márgenes temporales de acción lo que mermó su rendimiento. Lo mismo pudo haber ocurrido cuando ambos grupos de jugadores corrigieron el movimiento del miembro superior tras el impacto (17% vs. 10%) lo que aumentó el tiempo en responder al redirigir la respuesta hacia el lado correcto (208 vs. 205 ms). Además, los jugadores internacionales obtuvieron tiempos de movimiento menores que el de los jugadores nacionales (509 vs. 531 ms) lo que se reflejó en un tiempo total de actuación menor (683 vs. 703 ms). Por último, en cuanto al rendimiento del resto, los jugadores internacionales obtuvieron valores superiores a los jugadores nacionales (1.3 vs. 0.9). ABSTRACT Although there have been significant advances in laboratory studies with unrepresentative experimental designs (e.g., Farrow y Reid, 2012; Nieminen, Piirainen, Salmi, y Linnamo, 2013), today it is still unknown to full extent how tennis players of different levels of expertise calibrate or adjust their movements to the spatial-temporal demands present in the return of a first serve. Few studies have been carried out in situ and some aspects of the methodology most of them used can be questioned. Thus, in several studies the recording frequency has been limited (e.g., a 50 Hz en Jackson y Gudgeon, 2004; Triolet, Benguigui, Le Runigo y Williams, 2013), or serve speed was visibly lower than the usual one (cf. Carboch, Süss y Kocib, 2014; Williams, Singer y Weigelt, 1998). Also, in some studies, experienced participants have not played at international level (e.g., Avilés, Ruiz, Sanz y Navia, 2014), and the sample size has been very small (e.g., Gillet, Leroy, Thouvarecq, Mégrot y Stein, 2010). Furthermore, different works have used a variety of methods and measurement instruments and coding criteria of the onset of movements and responses have differed; due to this, visuomotor response delay (LVMr) has been very uneven, varying considerably from 198-410 ms. Considering the drawbacks mentioned above, this study aimed to determine a technical model of temporal regulation of movements and returner’s response, taking into account the continuous flow of information provided by the server. For this, a chronometric analysis of the returns of twelve players (six international and six national) of different sports level, that naturally responded by hitting their returns towards the targets, was performed. Actions of servers and returners were recorded with a Casio Exilim Pro Ex-F1 high speed camera (300 Hz) and then every 3.33 ms analysis was made frame by frame. Once the data of the videos were obtained, analyses were performed using one factor ANOVA test, ANCOVA with the speed of the serve as a covariate, U of Mann- Whitney and Pearson’s Chi-square test. As for the regulation of movement until the moment of serve, international players began their actions before national players, which could indicate that they were better prepared to execute movements reflecting the level of their expertise. International players began raising the rear foot at -293 ms and national players at -202 ms. All these actions were being linked to each other and it was at the moment of impact of the server when the receivers demonstrated a remarkable perceptual-motor coordination. Therefore, international players took off and started their flight just -6.5 ms before the serve and national players did the same somewhat later: +19.5 ms after the serve. Along the timeline, everything seems to indicate that the information used by returners interact with each other; early information which is less reliable to anticipate or move before, and later information more reliable appears to regulate the timing of actions. Returners of international and national levels anticipated at spatial level in a low percentage (7.7% vs. 13.6%) and in similar times (-127 vs. -118 ms) suggesting that the use of early and less reliable optical variables is only produced on rare occasions. Moreover, these data relate to a precise response as both international and national players showed a high percentage of success in responding (95.4% vs. 96.7%). It had been noted that international and national players would differ in the time the fall (i.e., landing) of the first foot of the split-step, however, this effect was not found (128 vs. 135 ms). No differences in the percentage of fall with the opposite foot to the direction of the ball (58% vs. 62%) were found. Where the two groups differed was in the time of the fall of the second foot (147 vs. 168 ms). This difference of 21 ms was crucial and it was a proof of mayor speed of international players; suggesting that this action could be related to the onset time of response. Although international players have proven to be faster in relation to their functional capabilities, both groups did not differ in all variables related to LVMr. They did not use those precious milliseconds earned at the time of the fall of the second foot to respond as soon, since the LVMr of the upper limb was the same for both groups (179 vs. 174 ms). It is as if they had all the time in the world to continue to adjust their actions until the return itself. Furthermore, these long times suggest that in the vast majority of the returns, key information that determined the response was detected (pick-up) in moments close to the hit of the server and in the first part of the ball flight. It was also found that in general the LVMr is influenced by the type of information used. Thus, when taking into account the trials during which there was spatial anticipation, reflected in LVMr of the whole body, the times decreased (152 vs. 136 ms). On the other hand, there were occasions (13%) where both international and national players responded late, thus receiving aces (208 vs. 195 ms). It is quite possible that in these cases the players have had trouble to pick-up information, responding out of temporary margins of action, which affected their performance. The same could have occurred when both groups of players corrected upper limb movement after impact (17% vs. 10%), which increased the time to respond and to redirect the return towards the right side (208 vs. 205 ms). Moreover, international players scored lower movement times than the national players (509 vs. 531 ms), which was reflected in a shorter total response time (683 vs. 703 ms). Finally, as far as the performance of return is concerned, international players scored above the national players values (1.3 vs. 0.9).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Eukaryotic genome similarity relationships are inferred using sequence information derived from large aggregates of genomic sequences. Comparisons within and between species sample sequences are based on the profile of dinucleotide relative abundance values (The profile is ρ*XY = f*XY/f*Xf*Y for all XY, where f*X denotes the frequency of the nucleotide X and f*XY denotes the frequency of the dinucleotide XY, both computed from the sequence concatenated with its inverted complement). Previous studies with respect to prokaryotes and this study document that profiles of different DNA sequence samples (sample size ≥50 kb) from the same organism are generally much more similar to each other than they are to profiles from other organisms, and that closely related organisms generally have more similar profiles than do distantly related organisms. On this basis we refer to the collection {ρ*XY} as the genome signature. This paper identifies ρ*XY extremes and compares genome signature differences for a diverse range of eukaryotic species. Interpretations on the mechanisms maintaining these profile differences center on genome-wide replication, repair, DNA structures, and context-dependent mutational biases. It is also observed that mitochondrial genome signature differences between species parallel the corresponding nuclear genome signature differences despite large differences between corresponding mitochondrial and nuclear signatures. The genome signature differences also have implications for contrasts between rodents and other mammals, and between monocot and dicot plants, as well as providing evidence for similarities among fungi and the diversity of protists.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este estudo teve por objetivo validar o Protocolo de avaliação do frênulo da língua em bebês. Para isso, a partir do cálculo amostral, foi aplicado o protocolo em 100 bebês saudáveis, nascidos a termo, com 30 dias de vida, em amamentação exclusiva. O processo de validação consistiu da análise da validade de conteúdo, de critério e de construto, bem como da confiabilidade, sensibilidade, especificidade, valor preditivo positivo e negativo. A validade de conteúdo foi realizada por três examinadores, por meio da classificação de cada item quanto à clareza e posterior aplicação do Índice de Validação do Conteúdo. As avaliadoras sugeriram modificações no protocolo, por consenso, possibilitando obter a versão final. Para a validade de critério, comparou-se o Protocolo de avaliação do frênulo da língua em bebês com o instrumento Bristol Tongue Assessment Tool (BTAT). A validade de construto foi analisada a partir da comparação dos escores do protocolo aplicado nos bebês com 30 e 75 dias. As avaliações foram realizadas por duas fonoaudiólogas especialistas em Motricidade Orofacial (denominadas A1 e A2), devidamente treinadas e calibradas, por meio da análise das filmagens realizadas durante a aplicação do protocolo, para verificação da concordância entre examinadores, bem como definição dos valores de sensibilidade, especificidade e valores preditivos. Para a análise da concordância intra-avaliador foi realizado o teste/reteste de 20% da amostra pela A2. Quanto ao tratamento estatístico, para a análise de concordância intra e entre avaliadores, foram utilizados o Coeficiente de Correlação Intraclasse e o cálculo do erro do método. Para análise da validade de construto foram aplicados os testes de Wilcoxon e Mann-Whitney. O nível de significância adotado em todos os testes foi de 5%. Houve 100% de concordância na validação do conteúdo. A validade de critério apresentou correlações fortes dos itens correspondentes do Protocolo de avaliação do frênulo da língua em bebês e do instrumento BTAT, sendo o valor do coeficiente de correlação de Spearman igual a -0,997. Os resultados obtidos evidenciaram uma concordância muito boa intra e entre avaliadores, com valores baixos de erro casual e valores de p>0,05 (evidenciando que não há diferença entre a análise dos avaliadores) e Coeficiente de Correlação Intraclasse maior que 0,75; mostrando ainda, uma capacidade significativa do protocolo em mensurar as mudanças resultantes da frenotomia lingual, pela história clínica, avaliação anatomofuncional e avaliação da sucção não nutritiva e nutritiva (p<0,05). Quando comparados os resultados dos bebês com alteração do frênulo lingual (grupo experimental) e sem alteração (grupo controle), com 30 e 75 dias, houve diferença nos escores parciais e no escore total do exame clínico e do protocolo completo. Os índices de sensibilidade, especificidade e valores preditivos positivo e negativo foram 100%. A ocorrência das alterações do frênulo lingual nesse estudo foi de 21%. Concluiu-se, com este estudo, que o Protocolo de avaliação do frênulo da língua em bebês mostrou ser um instrumento válido e confiável de avaliação, assegurando acurácia em diagnosticar as alterações do frênulo lingual dentro dos parâmetros investigados, podendo ser aplicado por diferentes avaliadores, desde que os mesmos sejam capacitados e treinados para sua aplicação.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Quase um em cada dez pacientes é lesionado ao receber cuidados de saúde e, destes, muitos sofrem lesões incapacitantes ou morte todos os anos. Entendendo a importância e o impacto negativo das falhas na segurança do paciente em âmbito global e a influência que a cultura e o clima de segurança exercem sobre a adoção de ações e decisões mais seguras, este estudo teve por objetivo a analise da cultura de segurança do paciente em instituições hospitalares, por meio da mensuração do clima de segurança. Trata-se de pesquisa quantitativa, transversal, do tipo Survey, em que para a realização da coleta de dados foi aplicado o Questionário de Atitudes de Segurança, adaptação transcultural para o Brasil do Safety Attitudes Questionnaire (SAQ) - Short Form 2006. O estudo ocorreu em dois hospitais gerais do estado de São Paulo, localizados em diferentes regiões metropolitanas, sendo um público e o outro privado. Os profissionais Médicos, Enfermeiros, Técnicos e Auxiliares de Enfermagem, Fisioterapeutas, Farmacêuticos e Nutricionistas, que atuavam nestes hospitais há pelo menos 6 meses, com carga horária de trabalho semanal de no mínimo 20 horas, constituíram a população deste estudo. Foi realizado um estudo piloto com 25 profissionais em cada hospital e a prevalência resultante deste teste foi utilizada no cálculo do tamanho amostral com nível de significância de 5%, erro relativo de 10% e perda de 20%, resultando em um total de 235 participantes. Os profissionais escolhidos como parte da amostra foram sorteados empregando-se amostragem aleatória simples computadorizada. As variáveis de cada domínio da escala quando testadas pelo Teste Kolmogorov-Smirnov não apresentaram normalidade. Deste modo, foi aplicado o Teste Mann-Whitney para comparar os valores das pontuações entre os hospitais e entre as categorias profissionais. Com relação aos resultados houve índice de participação de 86,8% da amostra sorteada, prevalecendo os sujeitos com 5 a 20 anos de tempo na especialidade, do gênero feminino, e trabalhadores da enfermagem. Não houve diferenças significantes dentre as pontuações obtidas pelos dois hospitais. Os participantes do estudo apresentaram percepção negativa quanto ao clima de segurança do paciente, com domínios Reconhecimento do Estresse e Percepção da Gestão apresentando resultados negativos, tanto para a amostra como um todo quanto por hospital. Os domínios Clima de Trabalho em Equipe, Satisfação no Trabalho e Comportamento Seguro/Práticas Seguras resultaram em percepções positivas para todas as categorias profissionais. Já o domínio Percepção da Gestão do Hospital resultou em percepção negativa para todas estas. Os Médicos e os Técnicos e Auxiliares de Enfermagem apresentaram percepções negativas em mais domínios. Em contrapartida, os Enfermeiros foram os únicos a apresentar atitude de segurança do paciente positiva, com escore total do SAQ exibindo diferença significante quando comparado a todas as outras categorias, apresentando também percepção positiva em maior número de domínios. Concluiu-se que existe a necessidade de abordagem relacionada ao Reconhecimento do Estresse dos profissionais, além dos aspectos do Gerenciamento. As categorias profissionais diferiram entre si com relação às percepções sobre a atitude de segurança do paciente. Desta forma, o desenvolvimento da cultura de segurança deve englobar todas as categorias profissionais, uma vez que esta abrange toda a organização, destacando-se a necessidade de enfoque de ações com relação a categoria dos Médicos e dos Técnicos e Auxiliares de Enfermagem. Além disso, ficou evidente o papel de destaque e liderança dos profissionais Enfermeiros nos processos de melhoria da qualidade, e colocando-os em posição privilegiada para conduzir os esforços de melhoria contínua da qualidade nos serviços de saúde

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Observations of cosmic rays arrival directions made with the Pierre Auger Observatory have previously provided evidence of anisotropy at the 99% CL using the correlation of ultra high energy cosmic rays (UHECRs) with objects drawn from the Veron-Cetty Veron catalog. In this paper we report on the use of three catalog independent methods to search for anisotropy. The 2pt-L, 2pt+ and 3pt methods, each giving a different measure of self-clustering in arrival directions, were tested on mock cosmic ray data sets to study the impacts of sample size and magnetic smearing on their results, accounting for both angular and energy resolutions. If the sources of UHECRs follow the same large scale structure as ordinary galaxies in the local Universe and if UHECRs are deflected no more than a few degrees, a study of mock maps suggests that these three method can efficiently respond to the resulting anisotropy with a P-value = 1.0% or smaller with data sets as few as 100 events. using data taken from January 1, 2004 to July 31, 2010 we examined the 20, 30, ... , 110 highest energy events with a corresponding minimum energy threshold of about 49.3 EeV. The minimum P-values found were 13.5% using the 2pt-L method, 1.0% using the 2pt+ method and 1.1% using the 3pt method for the highest 100 energy events. In view of the multiple (correlated) scans performed on the data set, these catalog-independent methods do not yield strong evidence of anisotropy in the highest energy cosmic rays.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The Rorschach Performance Assessment System (R-PAS) was developed in 2011 as analternative to the previous Comprehensive System. The goal was to improve the psychometrics,and particularly the validity, of this assessment method. The norms for children werequestionable in the Comprehensive system (e.g., outdated, low numbers of subjects) and validitystudies for children were sparse. One of the indicators included in the R-PAS system, theaggressive content indicator (AgC), is intended to reflect aggressive behavior, but few studieshave examined the validity of this indicator. This study examined the validity of AgC in asample of 32 children and adolescents receiving services at a residential treatment center.Subjects' AgC scores were analyzed in relation to demographics and diagnosis, as well as ratingsof aggression and conduct problems from the Behavioral Assessment System for Children-2(BASC-2) Parent and Teacher Reports. Correlations between the AgC score and BASC-2aggression and conduct problems scores were not statistically significant. None of thecorrelations between AgC score and a diagnosis of Conduct Disorder, Oppositional DefiantDisorder, Posttraumatic Stress Disorder, or Mood Disorders were significant either. Given thesmall sample size, null results may be a result of power concerns. The lack of significantcorrelations may however, indicate that operational definitions of aggression used in variousforms of measurement reflect different constructs.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A obtenção de genótipos superiores no melhoramento de plantas depende da existência de variabilidade genética. A existência de coleções de germoplasma representativas e a utilização de um tamanho adequado de amostra são fundamentais para a preservação das frequências alélicas e genotípicas, diminuindo a perda de variabilidade genética e postergando o aparecimento dos efeitos da deriva genética. Assim, teve-se como objetivo avaliar os efeitos da deriva genética em caracteres quantitativos em subpopulações de milho. Este estudo foi realizado a partir das populações originais BR-105 e BR-106, das quais 10 subpopulações foram obtidas em cada um dos cinco ciclos sucessivos de amostragem com tamanho efetivo reduzido, totalizando 50 subpopulações para cada população original, as quais foram posteriormente autofecundadas, gerando um nível a mais de endogamia. Os tratamentos foram constituídos de 10 amostras da população original sem autofecundação, 10 amostras com autofecundação, 50 subpopulações obtidas da população original e 50 subpopulações autofecundadas, totalizando 120 tratamentos para cada população, avaliados separadamente. Utilizou-se o delineamento em blocos casualizados no esquema de parcelas subdivididas em faixas hierárquico, em quatro ambientes com duas repetições por ambiente. Os caracteres avaliados foram produção de grãos (PG), prolificidade (PROL), comprimento e diâmetro de espigas (CE e DE), número de fileiras por espiga (NFE), número de grãos por fileira (NGF), altura de planta e espiga (AP e AE), florescimento masculino e feminino (FM e FF) e número de ramificações do pendão (NRP). Foram estimados os efeitos da deriva genética entre as médias das subpopulações nos dois níveis de endogamia e os efeitos da depressão por endogamia nas subpopulações dentro dos ciclos. Posteriormente, realizaram-se análises de regressão linear para as subpopulações nos dois níveis de endogamia, separadamente, e em conjunto. Foi verificada uma grande variação nas médias das subpopulações ao longo dos ciclos, indicando que a deriva genética causou diferenciação entre as mesmas e que estas se diferenciaram das populações originais. Detectaram-se efeitos significativos da deriva genética nas populações não autofecundadas para todos os caracteres avaliados, em maior número para PG, já que este caráter é mais sensível à deriva genética por possuir maior grau de dominância que os demais. Houve diminuição no número de estimativas de deriva significativas para as populações autofecundadas, incluindo mudanças na magnitude e no sinal das mesmas em relação às populações não autofecundadas. Para as estimativas de depressão por endogamia, os caracteres PG, NGF, FM e FF apresentaram maior quantidade de estimativas significativas que os demais. Para a maioria dos caracteres, a regressão linear explicou a maior parte da variação encontrada com o aumento dos coeficientes de endogamia. As populações BR-105 e BR-106, por terem estruturas genéticas distintas, apresentaram performances diferentes quanto aos efeitos da deriva genética. Enfim, como a deriva genética interfere na integridade genética das populações, torna-se importante considerar seus efeitos na coleta e manutenção dos bancos de germoplasma e nas populações utilizadas no melhoramento genético de plantas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A curva de retenção da água no solo é um dos principais instrumentos para avaliar a qualidade física dos solos e possibilitar seu manejo adequado. Por meio da Teoria da Capilaridade vários equipamentos foram desenvolvidos para determinar a intensidade com que a água está retida ao solo, porém, pouco se tem dado atenção para verificar se os pressupostos para o real funcionamento da teoria estão sendo atendidos. Um aspecto refere-se ao tamanho da amostra utilizada para determinar a curva de retenção, de modo que haja continuidade dos feixes capilares na amostra e placa porosa. Desta forma, este trabalho propõe avaliar diferentes tamanhos de amostra indeformada para a determinação da curva de retenção. Para isso, coletaram-se amostras em anéis volumétricos cilíndricos de três tamanhos (altura) diferentes (T1 - 0,075 m; T2 - 0,05 m; T3 - 0,025 m;) e mesmo diâmetro interno (0,07 m), dos horizontes diagnósticos de um Latossolo e um Nitossolo em áreas experimentais da Escola Superior de Agricultura Luiz de Queiroz (Esalq/USP), Piracicaba - SP. Realizou-se a caracterização física destes solos, por meio da análise granulométrica, densidade do solo, densidade de partículas, porosidade total e teor de carbono orgânico. As curvas foram determinadas para cada tamanho de amostra, utilizando-se o Funil de Haines, para as tensões 0,5, 1, 4, 6 e 10 kPa, e a Câmara de Pressão de Richards para 33, 100 e 500 kPa. As curvas de retenção foram ajustadas pelo modelo utilizado por van Genuchten. Estimadas as curvas, avaliou-se a distribuição de poros do solo das amostras, determinando-se a curva de frequência acumulada de poros em função do logaritmo do raio e, depois pela diferenciação das equações de ajuste das curvas de retenção, a curva diferencial de frequência acumulada de poros. Os resultados mostram que o Latossolo, por ter textura arenosa no horizonte estudado, não apresentou diferença significativa nas curvas de retenção para os tamanhos das amostras estudadas. Verificou-se pouca modificação na distribuição dos poros deste solo, que possui teor elevado das frações areia fina e muito fina, e desenvolveram papel importante para a retenção de água. O Nitossolo, por sua vez, apresentou diferença significativa da curva obtida pela amostra de menor tamanho (T3), havendo maior retenção de água com a diminuição do tamanho da amostra. Devido a sua textura muito argilosa, o arranjo estrutural deste solo foi diferenciado ao se utilizar as amostras maiores, com provável interrupção e descontinuidade dos feixes capilares. Consequentemente, houve também alteração na distribuição dos poros, com redução dos mesoporos e aumento dos microporos. Desta forma, pode-se concluir que o tamanho da amostra influenciou a curva de retenção da água devido à complexidade estrutural do solo, que provavelmente é diferente nas amostras maiores por causa da continuidade dos feixes capilares, principalmente no Nitossolo. Em outras palavras, quanto menor o tamanho da amostra há menor diferenciação no arranjo de poros, ou seja, maior proximidade da real condição do solo e, assim, uma interpretação da retenção de água \"mais correta\" por meio da Teoria da Capilaridade.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The purpose of this investigation was to determine if the way patients are informed of the diagnosis of multiple sclerosis (MS) affects their feelings about themselves as people with MS. Building on illness narrative, I hoped to examine how patients “storied” their experience of being informed of the diagnosis of MS and whether this “storying” had a lasting impact on their self-concept. The alternative would be that no connection exists between how a neurologist informs a patient of the diagnosis and how a person makes sense of their diagnosis and life with MS. Due to study limitations (e.g., small sample size, threat of response bias), the results are unclear about whether the way in which the news is broken has a lasting effect on patients' perceptions. However, review of the literature and patient responses indicate that there is a need for psychological intervention when patients are diagnosed with MS.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El presente estudio describe la comunidad de macroalgas epizóicas de Pinctada mazatlanica y la compara con la del substrato rocoso. Colectamos un total de 36 muestras de la comunidad de macroalgas, 18 muestras sobre ostras y otras tantas sobre substrato rocoso en la Península San Juan Nepomuceno, bahía de La Paz, México. Las algas fueron colectadas mediante buceo SCUBA raspando las distintas superficies (25 cm2 de substrato rocoso). El tamaño de muestra fue ajustado por curva de acumulación de especies y expresado con un modelo polinomial. Comparamos las comunidades de algas con análisis multivariantes de similitud basados en el índice de Bray-Curtis, entre substratos, diferentes alturas de ostras perleras y profundidades. Encontramos 27 especies de algas epizóicas (15.4% Clorophyta, 3.8% Phaeophyta y 80.8% Rhodophyta) con una disimilitud de 71.16% con respecto al substrato rocoso. El dendrograma mostró tres agrupaciones de macroalgas en P. mazatlanica. El primero caracterizado por Chondria, Jania, Herposiphonia tenella y Gracilaria. El segundo compuesto por Jania, Polysiphonia acuminata, P. decusata y Spyridia filamentosa. El tercero constituido por Polysiphonia sp., Jania, Herposiphonia tenella, Ceramium canouii y Amphiroa sp. Estas agrupaciones y los talos filamentosos de las algas epizóicas corresponden a estados iniciales de sucesión.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Objetivo: Evaluación de la eficacia analgésica para el dolor de la episiotomía entre el paracetamol y el Ibuprofeno, en las primeras 42 horas postparto. Método: Estudio cuasi-experimental (prospectivo y simple ciego) en mujeres que dieron a luz en el HOSPITAL UNIVERSITARIO CENTRAL DE ASTURIAS (OVIEDO), excluyendo alérgicas, patologías asociadas ó aquellas que el idioma impidiese un correcto entendimiento. Dos grupos: 1) Paracetamol 1 gr; 2) Ibuprofeno 600 mg. Tamaño de muestra: 110 por grupo para alcanzar mínimo de 80. Variable principal: grado de dolor según puntuación de escala (0 a 3). Otras variables: edad de paciente, semanas de gestación, peso neonatal, paridad, inicio del parto, anestesia epidural, tipo de parto, desgarro, inflamación y enrojecimiento, hematoma, hemorroides, necesidad de sondaje evacuador, aplicación de hielo y solicitud de analgesia. Tamaño final de la muestra: 88 grupo paracetamol y 97 grupo ibuprofeno. La escala de dolor se midió a las 2 horas postparto (previo al tratamiento) y, posteriormente, cada 8 hasta 42 horas. Se realizó análisis descriptivo y comparación entre grupos. Resultados: No encontramos diferencias significativas en la escala de dolor entre ambos fármacos, ni en los subgrupos analizados, salvo en el subgrupo de partos eutócicos, donde el ibuprofeno fue superior al paracetamol. En el global de la serie, el grupo de paracetamol solicitó hielo y otra medicación con mayor frecuencia que el grupo de ibuprofeno. Conclusiones: El ibuprofeno 600 mg y el paracetamol de 1 gr obtienen una respuesta similar en las primeras 42 horas postparto, si bien el ibuprofeno parece tener algunas ventajas adicionales.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Objetivo: evaluar el efecto del té verde o sus sucedáneos en el estado nutricional de los sujetos que realizan ejercicio físico. Metodología: las palabras clave son: “green tea” AND “exercise”, en cuatro bases de datos documentales: Pubmed, EBSCOHOST, OvidSP y Proquest. Criterios de inclusión (enero de 2010 y diciembre de 2014): edad adulta de la muestra (18-65 años, OMS); consumo de una cantidad cuantificada de té verde o sucedáneos, junto con la realización de ejercicio físico medible en intensidad. Resultados: de 260 artículos, se incluyeron el 5%. En el 69% se trata de estudios con un entrenamiento diseñado, y en el 92% se ha incluido un test de ejercicio para valorar parámetros. El 77% oscilan entre 20-40 años; las muestras varían entre 9 y 36 individuos. El 69% son de larga duración. El GTE ha sido el sucedáneo más utilizado (38%). El 92% de los ensayos han obtenido algún tipo de mejora (en el 92% fue significativa). Conclusiones: se recomienda aumentar las investigaciones sobre la clasificación de los ejercicios. Las mejoras significativas en el estado nutricional de los sujetos por la ingesta del té verde o sucedáneos son: IMC, peso, IGC, MM, INM, OM y MR. El GTE ha sido el que mayores resultados satisfactorios ha proporcionado. No existe homogeneidad en los resultados significativos. Se necesitan realizar nuevos ensayos clínicos. Las diferencias entre los ensayos clínicos revisados reflejan que las mejoras encontradas en el estado nutricional de los sujetos que realizan actividad física deben ser avaladas con nuevas investigaciones. Esto ayudará a crear evidencia en este tipo de aspectos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este estudo foi realizado com o propósito de desenvolver e validar o Sistema de Observação da Comunicação Proxémica do Instrutor de Fitness, assim como realizar uma aplicação piloto do mesmo. No processo de desenvolvimento e validação do novo sistema de observação foram consideradas cinco fases sequenciais. No final deste processo foi estabelecida a validade e fiabilidade de 5 dimensões e 23 categorias de comportamento proxémico dos instrutores, criandose a versão final deste sistema de observação. Esta versão do sistema foi aplicada num estudo piloto a uma amostra de 12 instrutores de fitness de quatro atividades de grupo distintas. Os resultados indicam que o comportamento proxémico dos instrutores pode ser codificado com recurso ao Sistema de Observação da Comunicação Proxémica do Instrutor de Fitness, tendo sido realizada uma análise comparativa acerca da sua intervenção nas diversas atividades, ainda que com uma amostra reduzida.