927 resultados para Multiple Change-point Analysis


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Children with developmental coordination disorder (DCD) are often referred to as clumsy because of their compromised motor coordination. Clumsiness and slow movement performances while scripting in children with DCD often result in poor academic performance and a diminished sense of scholastic competence. This study purported to examine the mediating role of perceived scholastic competence in the relationship between motor coordination and academic performance in children in grade six. Children receive a great deal of comparative information on their academic performances, which influence a student's sense of scholastic competence and self-efficacy. The amount of perceived academic self-efficacy has significant impact on academic performance, their willingness to complete academic tasks, and their self-motivation to improve where necessary. Independent t-tests reveal a significant difference (p < .001) between DCD and non-DCD groups when compared against their overall grade six average with the DCD group performing significantly lower. Independent t-tests found no significant difference between DCD and non-DCD groups for perceived scholastic competence. However, multiple linear regression analysis revealed a significant mediating role of 15% by perceived scholastic competence when examining the relationship between motor coordination and academic performance. While children with probable DCD may not rate their perceived scholastic competence as less than their healthy peers, there is a significant mediating effect on their academic performance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : Une majorité de Canadiens adopte un mode de vie sédentaire qui est un facteur de risque important pour différents problèmes de santé. Dernièrement, des interventions en santé publique ciblent le transport actif pour augmenter la pratique d’activité physique. Objectif : L’objectif de cette étude est de quantifier la direction et la taille de l’association entre l’état de santé rapporté par des adultes montréalais et leur utilisation de la marche et du vélo utilitaires. Méthode : L’échantillon comprend 4503 résidents de l’Île de Montréal, âgés de 18 ans et plus, ayant répondu à un sondage téléphonique sur la pratique de l’activité physique et du transport actif. Des analyses de régression logistique multiples ont été appliquées pour examiner l’association entre l’état de santé auto-rapporté et la pratique du vélo (N=4386) et entre l’état de santé auto-rapporté et la pratique de la marche utilitaire (N=4350). Résultats : Les gens ayant une santé perçue comme bonne et moyenne/mauvaise ont une probabilité plus faible de pratiquer la marche utilitaire (OR = 0,740; p < 0,05 et OR = 0,552; p < 0,01) que ceux rapportant une excellente santé, alors que cette association n’est pas significative pour la pratique du vélo utilitaire dans notre étude. Conclusion : Bien que les résultats obtenus ne soient pas tous statistiquement significatifs, la probabilité d’utiliser le transport actif semble plus faible chez les adultes indiquant un moins bon état de santé par rapport aux adultes indiquant que leur état de santé est excellent.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les maladies non transmissibles sont en forte hausse au Québec. La pratique régulière d’activités physiques (AP) permet d’agir en amont et de contribuer à la prévention de plusieurs de ces maladies. Cependant, une grande proportion de la population québécoise n’est pas suffisamment active pour en retirer des bienfaits pour sa santé. Plusieurs études portant sur l’efficacité des interventions de sensibilisation et de promotion de l’AP(SPAP) ont montré que les médecins omnipraticiens peuvent avoir une influence non négligeable sur le niveau de pratique d’AP de la population. Peu d’études à ce jour ont examiné la pratique de SPAP des médecins omnipraticiens du Québec auprès de leurs patients et quels sont les freins et facteurs facilitants. La présente étude vise à combler en partie cette lacune en documentant leur pratique de SPAP et en examinant dans quelle mesure les attitudes,perceptions, barrières, besoins et caractéristiques sociodémographiques influencent leur pratique. Une enquête anonyme a été retenue comme méthode pour dresser un portrait de la situation. L’échantillon de convenance est composé de 701 questionnaires recueillis lors de formations continues de la Fédération des médecins omnipraticiens du Québec. Les résultats montrent que deux répondants sur cinq (40 %) font de la SPAP auprès de la majorité de leurs patients en contexte de prévention primaire, et ce, bien que la presque totalité d’entre eux (98 %) croit que la SPAP fait partie de leur rôle fondamental. L’analyse de régression multiple a permis d’identifier les facteurs les plus souvent associés à la pratique de la SPAP chez les répondants : les médecins qui pratiquent eux-mêmes de l’AP de façon régulière, ceux qui ont plus de neuf ans d’expérience médicale, ceux qui sont moins affectés par la surcharge de travail et ceux qui ont l’impression d’être relativement efficaces dans leurs interventions de SPAP sont les plus susceptibles d’en faire auprès de leurs patients en contexte de prévention primaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’hypoalbuminémie est une trouvaille fréquente chez le patient brulé mais sa relation avec la morbidité et mortalité n’a pas été bien établie. Objectif : Déterminer si l’hypoalbuminémie dans les premières 24 heures suivant l’admission est associée avec la dysfonction d’organes (mesurée avec le score SOFA) chez les patients présentant des brûlures graves. Méthodologie : Nous avons révisé les dossiers médicaux des patients adultes avec de brûlures de 20% ou plus de surface corporelle admis pendant les premières 24 heures à l’unité de grands brulés du CHUM entre les années 2008 et 2009. Nous avons utilisé un modèle de régression linéaire multivariée pour déterminer si l’hypoalbuminémie était un prédicteur indépendant de la dysfonction d’organes. Résultats : 56 sujets ont été analysés. L’analyse de régression linéaire multiple a montré qu’en contrôlant pour l’âge, le sexe, la surface corporelle brûlée et les brûlures par inhalation, l’hypoalbuminémie pendant les premières 24 heures suivant l’admission est un prédicteur indépendant de la dysfonction d’organes. Une concentration d’albumine ≤30g/L est aussi associée à une augmentation de la dysfonction d’organes [score SOFA au jour 0 (p = 0.005), jour 1 (p = 0.005), moyenne de la première semaine (p = 0.004)], mais n’est pas associée avec la mortalité (p = 0.061). Conclusions : L’hypoalbuminémie est associée avec la dysfonction d’organes chez les patients brulés. À la différence de facteurs non modifiables comme l’âge, le sexe, la surface corporelle brûlée et la présence de brûlures par inhalation, la correction de l’hypoalbuminémie peut être un objectif intéressant pour un futur essai clinique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le travail d’équipe et la collaboration interprofessionnelle aux soins intensifs sont essentiels pour prodiguer des soins de qualité aux patients et pour leur sécurité. Cependant, les multiples interactions que nécessite une collaboration dans un contexte de soins aigus sont susceptibles de causer des tensions, des conflits et un travail inefficace dans l’équipe. Les déterminants de cette collaboration en soins intensifs ne sont pas encore bien identifiés. L'objectif de cette recherche est d'identifier et d'évaluer l’importance relative des déterminants susceptibles d’influencer la collaboration interprofessionnelle dans une équipe de soins intensifs. Un questionnaire évaluant ces déterminants a été élaboré et rempli par des professionnels de la santé travaillant dans quatre unités de soins intensifs d’un hôpital universitaire de Montréal. Un total de 312 professionnels, dont 46 médecins, 187 infirmières et 62 inhalothérapeutes, ont rempli le questionnaire. Des modèles d'analyses de régression multiple par hiérarchisation ont permis de déterminer que la « clarté du travail et des processus » , la « confiance et le respect » , mais tout particulièrement la « participation aux décisions » sont des déterminants statistiquement significatifs pour prédire la collaboration dans une équipe de soins intensifs. Une analyse de sous-groupe suggère des différences entre les médecins et les infirmières sur la perception de ces déterminants. Ces résultats apportent de nouveaux éléments dans la compréhension de la pratique de la collaboration et du travail d’équipe dans une équipe de soins intensifs, en précisant mieux ses déterminants. Sur le plan pratique, cela implique qu'il faille : i) favoriser un développement de la compétence de « collaboration » des professionnels travaillant dans le milieu des soins intensifs ; ii) cibler l’apprentissage auprès de ces professionnels en tenant compte des déterminants de la collaboration identifiés dans la présente étude.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le désengagement scolaire constitue un problème social important au Québec. Les difficultés qu’éprouvent certains élèves à suivre les instructions, à participer en classe et à s’investir dans leur travail scolaire peuvent, à plus long terme, influencer leur réussite scolaire et mener à l’échec ou au décrochage. Vu l’importance du rôle joué par les parents et les enseignants sur l’engagement, la présente étude a pour but d’étudier la contribution des parents et des enseignants à l’engagement comportemental des élèves d’origine haïtienne issus de l’immigration fréquentant des écoles primaires en milieux défavorisés à Montréal. Elle vise également à examiner comment la contribution de ces acteurs se combine pour favoriser l’engagement comportemental de ces élèves. Les données ont été recueillies auprès de 211 élèves de 3e à 5e année provenant d’écoles de milieux défavorisés et multiethniques sur l'île de Montréal, et de leurs enseignants. Les résultats de nos analyses de régressions montrent que la chaleur dans la relation maître-élève exerce un effet modérateur sur le lien entre l’importance accordée à la réussite scolaire et l’engagement comportemental. Ainsi, l’importance accordée à la réussite scolaire par les parents est plus importante pour l’engagement des élèves qui partagent des relations peu chaleureuses et amicales avec leur enseignant que pour leurs pairs qui ont de bonnes relations avec leur enseignant. Des pistes pour l’intervention et pour la recherche future sont présentées à la lumière de ces résultats.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de este estudio fue identificar las tendencias en la investigación de la depresión infantil mediante un análisis bibliométrico de artículos publicados entre enero de 2010 y enero de 2015, en las bases de datos EBSCO, Scopus y Scielo. Se incluyeron 146 artículos, escritos en inglés, español y portugués. En el trabajo se identifican los autores más productivos y las tendencias de los autores con respecto al sexo, profesión y producción; así como los países, instituciones y revistas que más publicaron sobre dicho trastorno. La edad y la ansiedad son las variables que con más frecuencia se asocian al tema; de igual forma, se identificó el Children Depression Inventory (CDI) como el instrumento más común para medir la depresión infantil. En este periodo de tiempo destacan los artículos centrados en investigaciones sobre poblaciones con diferentes estados de salud, diseños correlacionales, de corte transversal y escritos por múltiples autores. Al analizar los resultados obtenidos se observa un creciente interés y preocupación de los investigadores por conocer la frecuencia de los trastornos del estado de ánimo y más específicamente de la depresión en niños, y la asociación e influencia que esta puede tener para su desarrollo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo presenta el diseño e implementación de un programa progresivo de rehabilitación basado en los ejercicios musculares del suelo pélvico, incorporando el trabajo muscular de fuerza contrarresistencia. El disenño del estudio es casi experimental.La muestra es de 33 participantes en fase de tratamiento. Las variables de estudio son las antropométricas, las relacionadas con la evolución de la incontinencia urinaria(IU (intensidad, dificultad, frecuencia y limitación de las actividades),la obesidad, fatiga y dolor,la fuerza muscular y la calidad de vida(CdV). Para evaluar el cambio intrasujeto se tomaron medidas pretest(semana 0)y postest(semana24. En el análisis estadístico se utilizan las pruebas t Student-Fisher, Wilcoxon oU de Mann Whitney y el test del w2. El análisis se realiza con el programa SPSS versión 15. El nivel de significación escogido es del 5%. Al finalizar las 24 semanas del programa se identifica una disminución significativa de las variables antropométricas índice de cintura cadera (p¼0,003), perímetro de cintura(pr0,001) y porcentaje de masa de grasa(pr0,001); de las variables de IU: intensidad(pr0,0001), frecuencia y dificultad y su relación con la limitación de las actividades (pr0,0001), así como la relación existente entre la mejora de IU y la mejora de la CdV(p¼0,039). Queda científicamente demostrada la eficacia del programa progresivo de fuerza para disminuir la IU. La mejora de la CdV del hombre mayor con cáncer de prósstata viene mediada por la mejora de la continencia urinaria

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Space weather effects on technological systems originate with energy carried from the Sun to the terrestrial environment by the solar wind. In this study, we present results of modeling of solar corona-heliosphere processes to predict solar wind conditions at the L1 Lagrangian point upstream of Earth. In particular we calculate performance metrics for (1) empirical, (2) hybrid empirical/physics-based, and (3) full physics-based coupled corona-heliosphere models over an 8-year period (1995–2002). L1 measurements of the radial solar wind speed are the primary basis for validation of the coronal and heliosphere models studied, though other solar wind parameters are also considered. The models are from the Center for Integrated Space-Weather Modeling (CISM) which has developed a coupled model of the whole Sun-to-Earth system, from the solar photosphere to the terrestrial thermosphere. Simple point-by-point analysis techniques, such as mean-square-error and correlation coefficients, indicate that the empirical coronal-heliosphere model currently gives the best forecast of solar wind speed at 1 AU. A more detailed analysis shows that errors in the physics-based models are predominately the result of small timing offsets to solar wind structures and that the large-scale features of the solar wind are actually well modeled. We suggest that additional “tuning” of the coupling between the coronal and heliosphere models could lead to a significant improvement of their accuracy. Furthermore, we note that the physics-based models accurately capture dynamic effects at solar wind stream interaction regions, such as magnetic field compression, flow deflection, and density buildup, which the empirical scheme cannot.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The hypothesis that the elements of the modern species-rich flora of the Cape Floristic Region (CFR), South Africa, originated more or less simultaneously at the Miocene/Pliocene boundary, in response to the development of a mediterranean climate, has been challenged by numerous molecular dating estimates of Cape floral clades. These studies reveal a more gradual emergence, with the oldest clades originating in the Eocene, but others appearing later, some as recently as the Pliocene. That there are factors which might affect the dates recovered, such as choice of calibration point, analysis method, sampling density and the delimitation of Cape floral clades, suggests a need for further critical evaluation of the age estimates presented to date. In this study, the dates of origin of two Cape floral clades (the legume Crotalarieae p.p. and Podalyrieae) are estimated, constrained by a shared calibration point in a single analysis using an rDNA ITS phylogeny in which 633 taxa are sampled. The results indicate that these two clades arose contemporaneously 44-46 mya, not at the Miocene/Pliocene boundary as had been previously supposed. The contemporaneous origin of these Cape floral clades suggests that additional more inclusive analyses are needed before rejecting the hypothesis that a. single environmental trigger explains the establishment of Cape floral clades. (c) 2007 Elsevier Inc. All rights reserved.