988 resultados para Bases de données administratives


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis l’adoption de la Loi 90 en 2002, la Loi sur les infirmières et infirmiers (LII, article 36) confère une autonomie élargie aux infirmières en reconnaissant, notamment, leur compétence et leur responsabilité à l’égard de l’évaluation clinique qui est représentée dans cette loi comme l’assise de l’exercice infirmier (Pellerin, 2009; OIIQ, 2010). La collecte des données constitue une étape fondamentale du processus d’évaluation clinique (Dillon, 2007; Doyon, Brûlé & Cloutier, 2002; Pellerin, 2009; Weber & Kelley, 2007). L’infirmière d’urgence a une responsabilité majeure à l’égard de la collecte des données. En effet, elle œuvre auprès de clientèles de tous âges qui présentent des problèmes de santé variés, aigus et parfois urgents et doit souvent intervenir, sur la base de son évaluation clinique, avant qu’un diagnostic n’ait été établi ou que le patient n’ait été vu par le médecin (Newberry & Criddle, 2005). Or, malgré toute l’importance que revêtent dorénavant l’évaluation clinique et la collecte des données au sens de la loi, ce rôle de l’infirmière semble tarder à s’actualiser dans la pratique clinique. Le but de cette étude qualitative descriptive consiste à explorer les perceptions d’infirmières, de gestionnaires en soins infirmiers et d’infirmières ressources cliniques d’urgence relativement à la réalisation de la collecte des données. La norme clinique « collecte des données » (assessment) de l’Emergency Nurses Association (1999) constitue le cadre de référence de l’étude. Cinq entrevues individuelles semi-dirigées de 60 minutes ainsi qu’un groupe de discussion de 90 minutes ont été réalisés auprès d’infirmières d’urgence. Un deuxième groupe de discussion a également réuni deux gestionnaires en soins infirmiers et deux infirmières ressources cliniques de l’urgence. Les données recueillies ont été analysées selon l’approche proposée par Miles et Huberman (2003). Les résultats obtenus démontrent que les infirmières considèrent la collecte des données comme un aspect fondamental de leur pratique à l’urgence, qui contribue à améliorer la qualité et la sécurité des soins dispensés. Or, les résultats révèlent également que leur compréhension de la collecte des données est variable, que leur pratique est aléatoire et largement influencée par le modèle biomédical. Plusieurs facteurs influencent la pratique des infirmières relativement à la collecte des données notamment : la conception individuelle de la collecte des données et du rôle infirmier, les relations et l’interaction avec les membres de l’équipe des soins infirmiers et les autres professionnels ainsi que le soutien de l’organisation et des gestionnaires en soins infirmiers. Ce dernier facteur semble prépondérant dans le contexte de l’urgence et démontre que le soutien des gestionnaires et des infirmières ressources cliniques influence de façon importante la pratique dans les milieux cliniques. Cette étude propose des pistes de réflexion sur la formation académique, la formation continue, l’administration des soins infirmiers et la collaboration interprofessionnelle qui pourraient faciliter l’actualisation du rôle des infirmières à l’égard de la collecte des données et de l’évaluation clinique afin d’améliorer la qualité des soins dispensés à l’urgence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Activité de formation continue offerte aux nutritionnistes par NUTRIUM, Département de nutrition de l'Université de Montréal; cette présentation démontre les outils pour trouver les données probantes dans la littérature scientifique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une sous-population des neurones à dopamine (DA) du mésencéphale ventral du rat et de la souris étant connue pour exprimer l'ARN messager du transporteur vésiculaire 2 du glutamate (VGLUT2), nous avons eu recours à l'immunocytochimie en microscopie électronique, après simple ou double marquage de l'enzyme de synthèse tyrosine hydroxylase (TH) et de VGLUT2, pour déterminer la présence de l'une et/ou l'autre protéine dans les terminaisons (varicosités) axonales de ces neurones et caractériser leur morphologie ultrastructurale dans diverses conditions expérimentales. Dans un premier temps, des rats jeunes (P15) ou adultes (P90), ainsi que des rats des deux âges soumis à l'administration intraventriculaire cérébrale de la cytotoxine 6-hydroxydopamine (6-OHDA) dans les jours suivant la naissance, ont été examinés, afin d'étayer l'hypothèse d'un rôle de VGLUT2 au sein des neurones DA, au cours du développement normal ou pathologique de ces neurones. Chez le jeune rat, ces études ont montré: i) la présence de VGLUT2 dans une fraction importante des varicosités axonales TH immunoréactives du coeur du noyau accumbens ainsi que du néostriatum; ii) une augmentation de la proportion de ces terminaisons doublement marquées dans le noyau accumbens par suite de la lésion 6-OHDA néonatale; iii) le double marquage fréquent des varicosités axonales appartenant à l'innervation DA aberrante (néoinnervation), qui se développe dans la substance noire, par suite de la lésion 6-OHDA néonatale. Des différences significatives ont aussi été notées quant à la dimension des terminaisons axonales marquées pour la TH seulement, VGLUT2 seulement ou TH et VGLUT2. Enfin, à cet âge (P15), toutes les terminaisons doublement marquées sont apparues dotées d'une spécialisation membranaire synaptique, contrairement aux terminaisons marquées pour la TH ou pour VGLUT2 seulement. Dans un deuxième temps, nous avons voulu déterminer le devenir du double phénotype chez le rat adulte (P90) soumis ou non à la lésion 6-OHDA néonatale. Contrairement aux observations recueillies chez le jeune rat, nous avons alors constaté: i) l'absence complète de terminaisons doublement marquées dans le coeur du noyau accumbens et le néostriatum d'animaux intacts, de même que dans les restes de la substance noire des animaux 6-OHDA lésés; ii) une très forte baisse de leurnombre dans le coeur du noyau accumbens des animaux 6-OHDA lésés. Ces observations, suggérant une régression du double phénotype TH/VGLUT2 avec l'âge, sont venues renforcer l'hypothèse d'un rôle particulier d'une co-libération de glutamate par les neurones mésencéphaliques DA au cours du développement. Dans ces conditions, il est apparu des plus intéressants d'examiner l'innervation DA méso-striatale chez deux lignées de souris dont le gène Vglut2 avait été sélectivement invalidé dans les neurones DA du cerveau, ainsi que leurs témoins et des souris sauvages. D'autant que malgré l'utilisation croissante de la souris en neurobiologie, cette innervation DA n'avait jamais fait l'objet d’une caractérisation systématique en microscopie électronique. En raison de possibles différences entre le coeur et la coque du noyau accumbens, l'étude a donc porté sur les deux parties de ce noyau ainsi que le néostriatum et des souris jeunes (P15) et adultes (P70-90) de chaque lignée, préparées pour l'immunocytochimie de la TH, mais aussi pour le double marquage TH et VGLUT2, selon le protocole précédemment utilisé chez le rat. Les résultats ont surpris. Aux deux âges et quel que soit le génotype, les terminaisons axonales TH immunoréactives des trois régions sont apparues comparables quant à leur taille, leur contenu vésiculaire, le pourcentage contenant une mitochondrie et une très faible incidence synaptique (5% des varicosités, en moyenne). Ainsi, chez la souris, la régression du double phénotype pourrait être encore plus précoce que chez le rat, à moins que les deux protéines ne soient très tôt ségréguées dans des varicosités axonales distinctes des mêmes neurones DA. Ces données renforcent aussi l’hypothèse d’une transmission diffuse (volumique) et d’un niveau ambiant de DA comme élément déterminant du fonctionnement du système mésostriatal DA chez la souris comme chez le rat.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’amusie congénitale est un trouble neuro-développemental se définissant par des difficultés à percevoir la musique, et ce malgré une ouïe et une intelligence normales. Un déficit de discrimination fine des hauteurs serait à l’origine de ce trouble, qui se traduit notamment par une incapacité à détecter les fausses notes. afin de mieux comprendre les facteurs génétiques contribuant à la manifestation de l’amusie congénitale, la présente étude avait pour objectif: (a) de déterminer si la performance sur diverses tâches musicales et auditives était plus similaire chez les jumeaux identiques (monozygotes ; MZ) que chez les jumeaux non-identiques (dizygotes ; DZ) et (b) d’explorer les variables relatives à l’environnement musical des jumeaux, afin de mieux comprendre les contributions de l’environnement et de la génétique dans les différences sous-tendant les habiletés musicales. De plus, le profil des sujets amusiques a été analysé afin de vérifier s’il correspondait à celui décrit dans la littérature, faisant état de difficultés tonales, mais non rythmiques. Huit paires de jumeaux MZ et six paires de jumeaux DZ, parmi lesquelles au moins un des co-jumeaux était potentiellement amusique, ont pris part à cette étude. Les tâches consistaient en un test en ligne de perception mélodique et rythmique, un test de détection des différences de hauteurs, ainsi qu’un test de chant. L’analyse de la performance et de l’environnement musical des jumeaux MZ et DZ ne révèle aucune distinction comportementale entre ces deux groupes en ce qui concerne les habiletés musicales. Cela suggère que celles-ci puissent être davantage influencées par l’environnement partagé que par les facteurs génétiques. Enfin, les jumeaux amusiques ont le profil habituel d’habiletés musicales. En effet, ils commettent des erreurs de perception et de production musicale au niveau mélodique, mais ont une perception rythmique préservée. D’autres études, notamment avec de plus grands échantillons de jumeaux, seront nécessaires afin d’élucider la possible étiologie génétique sous-tendant l’amusie congénitale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les objectifs de l’étude de l’évolution du risque cardiométabolique (RCM) sur une période de quatre ans (2006-2010) chez des adultes béninois consistaient à: • Examiner les relations entre l’obésité abdominale selon les critères de la Fédération Internationale du Diabète (IFD) ou l’insulino-résistance mesurée par le Homeostasis Model Assessment (HOMA) et l’évolution des autres facteurs de RCM, • Examiner les liens entre les habitudes alimentaires, l’activité physique et les conditions socio-économiques et l’évolution du RCM évalué conjointement par le score de risque de maladies cardiovasculaires de Framingham (FRS) et le syndrome métabolique (SMet). Les hypothèses de recherche étaient: • L’obésité abdominale telle que définie par les critères de l’IDF est faiblement associée à une évolution défavorable des autres facteurs de RCM, alors que l’insulino-résistance mesurée par le HOMA lui est fortement associée; • Un niveau socioéconomique moyen, un cadre de vie peu urbanisé (rural ou semi-urbain), de meilleures habitudes alimentaires (score élevé de consommation d’aliments protecteurs contre le RCM) et l’activité physique contribuent à une évolution plus favorable du RCM. L’étude a inclus 541 sujets âgés de 25 à 60 ans, apparemment en bonne santé, aléatoirement sélectionnés dans la plus grande ville (n = 200), une petite ville (n = 171) et sa périphérie rurale (n = 170). Après les études de base, les sujets ont été suivis après deux et quatre ans. Les apports alimentaires et l’activité physique ont été cernés par deux ou trois rappels de 24 heures dans les études de base puis par des questionnaires de fréquence simplifiés lors des suivis. Les données sur les conditions socioéconomiques, la consommation d’alcool et le tabagisme ont été recueillies par questionnaire. Des mesures anthropométriques et la tension artérielle ont été prises. La glycémie à jeun, l’insulinémie et les lipides sanguins ont été mesurés. Un score de fréquence de consommation d’« aliments sentinelles » a été développé et utilisé. Un total de 416 sujets ont participé au dernier suivi. La prévalence initiale du SMet et du FRS≥10% était de 8,7% et 7,2%, respectivement. L’incidence du SMet et d’un FRS≥10% sur quatre ans était de 8,2% et 5%, respectivement. Le RCM s’était détérioré chez 21% des sujets. L’obésité abdominale définie par les valeurs seuils de tour de taille de l’IDF était associée à un risque plus élevé d’insulino-résistance: risque relatif (RR) = 5,7 (IC 95% : 2,8-11,5); d’un ratio cholestérol total/HDL-Cholestérol élevé: RR = 3,4 (IC 95% : 1,5-7,3); mais elle n’était pas associée à un risque significativement accru de tension artérielle élevée ou de triglycérides élevés. Les valeurs seuils de tour de taille optimales pour l’identification des sujets accusant au moins un facteur de risque du SMet étaient de 90 cm chez les femmes et de 80 cm chez les hommes. L’insulino-résistance mesurée par le HOMA était associée à un risque élevé d’hyperglycémie: RR = 5,7 (IC 95% : 2,8-11,5). En revanche, l’insulino-résistance n’était pas associée à un risque significatif de tension artérielle élevée et de triglycérides élevés. La combinaison de SMet et du FRS pour l’évaluation du RCM identifiait davantage de sujets à risque que l’utilisation de l’un ou l’autre outil isolément. Le risque de détérioration du profil de RCM était associé à un faible score de consommation des «aliments sentinelles» qui reflètent le caractère protecteur de l’alimentation (viande rouge, volaille, lait, œufs et légumes): RR = 5,6 (IC 95%: 1,9-16,1); et à l’inactivité physique: RR = 6,3 (IC 95%: 3,0-13,4). Les sujets de niveau socioéconomique faible et moyen, et ceux du milieu rural et semi-urbain avaient un moindre risque d’aggravation du RCM. L’étude a montré que les relations entre les facteurs de RCM présentaient des particularités chez les adultes béninois par rapport aux Caucasiens et a souligné le besoin de reconsidérer les composantes du SMet ainsi que leurs valeurs seuils pour les Africains sub-sahariens. La détérioration rapide du RCM nécessité des mesures préventives basées sur la promotion d’un mode de vie plus actif associé à de meilleures habitudes alimentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La religion est un phénomène culturel universel et un sujet d'étude central en anthropologie. Pourtant, on constate un manque flagrant de consensus sur sa définition et son origine dans les manuels d'introduction et les dictionnaires d'anthropologie. Des hypothèses et des modèles explorant cette question sont toutefois disponibles depuis une vingtaine d'années du côté de la psychobiologie. Le présent projet cherche à déterminer si la définition et les explications de la religion que propose l'anthropologie sont compatibles, en tout ou en partie, avec les données et modèles de la psychobiologie. Une synthèse des hypothèses psychobiologiques est d'abord présentée; elle sert de point de comparaison analytique avec les théories anthropologiques de la religion. Deux de ces théories, celles de Edward Burnett Tylor ([1874] 1889) et Clifford Geertz ([1966] 2010), sont résumées et ensuite analysées en rapport avec leur définition de la religion, leurs éléments universels (explicites et implicites) et leurs principes théoriques. Ces deux auteurs sont reconnus pour leur influence majeure dans ce domaine et ils s'appuient sur des fondements théoriques opposés. L'analyse démontre que seule la théorie de Tylor confirme l'hypothèse de ce mémoire, à l'effet que certaines conceptions et explications anthropologiques de la religion sont compatibles avec les explications psychobiologiques. Malgré tout, une conciliation de l'ensemble des sources analysées et l'esquisse d'un modèle sur la nature et l'origine évolutive de la religion semblent se dessiner.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les simulations ont été implémentées avec le programme Java.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La musique est un comportement humain incontestablement universel, elle demeure néanmoins peu abordée par l’anthropologie. Si les connaissances empiriques accumulées à ce jour ont permis de bien la caractériser à des niveaux proximaux d’analyse, la question de son origine évolutionniste est, en contrepartie, souvent délaissée. Or, toute tentative sérieuse de comprendre ce phénomène requiert une investigation de sa fonction adaptative et de sa phylogénèse. Le projet entrepris ici consiste en une tentative de définition du concept de musique en terme d’universaux, d’une comparaison interspécifique du phénomène et d’un résumé de l’histoire phylogénétique des comportements musicaux, ainsi que d’une analyse de deux modèles portant sur les origines de la musique (Miller, 2000; Mithen, 2006). De ces modèles sont extraites des prévisions qui sont confrontées à des données empiriques provenant de disciplines diverses afin d’évaluer leur valeur scientifique. L’analyse des données disponibles permet de produire un inventaire des universaux musicaux aux plans cognitif, structurel, émotionnel, fonctionnel et symbolique et d’identifier ainsi certaines des bases biologiques du phénomène. Plusieurs mécanismes évolutionnistes, dont la sélection naturelle, la sélection sexuelle, la sélection de groupe et la sélection parentale sont employés par les divers auteurs afin d’expliquer l’apparition du phénomène musical. Il appert que la musique a joué un rôle important dans la relation parent-enfant au cours de l’évolution humaine, de même que dans la cohésion sociale, la coordination des activités et la formation de l’identité de groupe. En ce qui a trait aux deux modèles analysés ici, chacun ne traite que d’une partie des invariants musicaux et leur comparaison permet d’établir qu’ils sont mutuellement exclusifs. En guise de conclusion, nous tentons de formuler un scénario évolutif qui concilie les différentes hypothèses abordées.