1000 resultados para Modèle de données
Resumo:
Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.
Resumo:
Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.
Resumo:
Dans ce mémoire de maîtrise, nous utilisons les microdonnées de l’Enquête sur les dépenses des ménages de Statistique Canada en 2009 pour tester la validité empirique du modèle unitaire de dépense des ménages. En s’inspirant de l’étude conduite par Phipps et Burton en 1998, nous tentons une actualisation de leurs résultats ainsi qu’une analyse de l’évolution du comportement des ménages canadiens entre 1992 et 2009. La nouveauté présentée dans ce mémoire de maîtrise tient justement dans ces résultats. Dans la majorité des catégories de dépenses, nous ne rejetons plus le modèle unitaire et nous en mesurons les implications. Entre ces deux études, les différences entre l’homme et la femme dans les couples canadiens se sont atténuées, ils ont de plus en plus les mêmes préférences en terme de consommation. Enfin, nous poursuivons en apportant un test du modèle coopératif développé par Browning, Bourguignon, Chiappori et Lechene (1994) sur la demande en biens exclusifs. Nous en déduisons un aperçu de la répartition du pouvoir de dépense au sein des ménages canadiens.
Resumo:
Le modèle développé à l'Institut universitaire de médecine sociale et préventive de Lausanne utilise un programme informatique pour simuler les mouvements d'entrées et de sorties des hôpitaux de soins généraux. Cette simulation se fonde sur les données récoltées de routine dans les hôpitaux; elle tient notamment compte de certaines variations journalières et saisonnières, du nombre d'entrées, ainsi que du "Case-Mix" de l'hôpital, c'est-à-dire de la répartition des cas selon les groupes cliniques et l'âge des patients.
Resumo:
Résumé tout public : Le développement du diabète de type II et de l'obésité est causé par l'interaction entre des gènes de susceptibilité et des facteurs environnementaux, en particulier une alimentation riche en calories et une activité physique insuffisante. Afín d'évaluer le rôle de l'alimentation en absence d'hétérogénéité génétique, nous avons nourri une lignée de souris génétiquement pure avec un régime extrêmement gras. Ce régime a conduit à l'établissement de différents phénotypes parmi ces souris, soit : un diabète et une obésité (ObD), un diabète mais pas d'obésité (LD) ou ni un diabète, ni une obésité (LnD). Nous avons fait l'hypothèse que ces adaptations différentes au stress nutritionnel induit par le régime gras étaient dues à l'établissement de programmes génétiques différents dans les principaux organes impliqués dans le maintien de l'équilibre énergétique. Afin d'évaluer cette hypothèse, nous avons développé une puce à ADN contenant approximativement 700 gènes du métabolisme. Cette puce à ADN, en rendant possible la mesure simultanée de l'expression de nombreux gènes, nous a permis d'établir les profils d'expression des gènes caractéristiques de chaque groupe de souris nourries avec le régime gras, dans le foie et le muscle squelettique. Les données que nous avons obtenues à partir de ces profils d'expression ont montré que des changements d'expression marqués se produisaient dans le foie et le muscle entre les différents groupes de souris nourries avec le régime gras. Dans l'ensemble, ces changements suggèrent que l'établissement du diabète de type II et de l'obésité induits par un régime gras est associé à une synthèse accrue de lipides par le foie et à un flux augmenté de lipides du foie jusqu'à la périphérie (muscles squelettiques). Dans un deuxième temps, ces profils d'expression des gènes ont été utilisés pour sélectionner un sous-ensemble de gènes suffisamment discriminants pour pouvoir distinguer entre les différents phénotypes. Ce sous-ensemble de gènes nous a permis de construire un classificateur phénotypique capable de prédire avec une précision relativement élevée le phénotype des souris. Dans le futur, de tels « prédicteurs » basés sur l'expression des gènes pourraient servir d'outils pour le diagnostic de pathologies liées au métabolisme. Summary: Aetiology of obesity and type II diabetes is multifactorial, involving both genetic and environmental factors, such as calory-rich diets or lack of exercice. Genetically homogenous C57BL/6J mice fed a high fat diet (HFD) up to nine months develop differential adaptation, becoming either obese and diabetic (ObD) or remaining lean in the presence (LD) or absence (LnD) of diabetes development. Each phenotype is associated with diverse metabolic alterations, which may result from diverse molecular adaptations of key organs involved in the control of energy homeostasis. In this study, we evaluated if specific patterns of gene expression could be associated with each different phenotype of HFD mice in the liver and the skeletal muscles. To perform this, we constructed a metabolic cDNA microarray containing approximately 700 cDNA representing genes involved in the main metabolic pathways of energy homeostasis. Our data indicate that the development of diet-induced obesity and type II diabetes is linked to some defects in lipid metabolism, involving a preserved hepatic lipogenesis and increased levels of very low density lipoproteins (VLDL). In skeletal muscles, an increase in fatty acids uptake, as suggested by the increased expression of lipoprotein lipase, would contribute to the increased level of insulin resistance observed in the ObD mice. Conversely, both groups of lean mice showed a reduced expression in lipogenic genes, particularly stearoyl-CoA desaturase 1 (Scd-1), a gene linked to sensitivity to diet-induced obesity. Secondly, we identified a subset of genes from expression profiles that classified with relative accuracy the different groups of mice. Such classifiers may be used in the future as diagnostic tools of each metabolic state in each tissue. Résumé Développement d'une puce à ADN métabolique et application à l'étude d'un modèle murin d'obésité et de diabète de type II L'étiologie de l'obésité et du diabète de type II est multifactorielle, impliquant à la fois des facteurs génétiques et environnementaux, tels que des régimes riches en calories ou un manque d'exercice physique. Des souris génétiquement homogènes C57BL/6J nourries avec un régime extrêmement gras (HFD) pendant 9 mois développent une adaptation métabolique différentielle, soit en devenant obèses et diabétiques (ObD), soit en restant minces en présence (LD) ou en absence (LnD) d'un diabète. Chaque phénotype est associé à diverses altérations métaboliques, qui pourraient résulter de diverses adaptations moléculaires des organes impliqués dans le contrôle de l'homéostasie énergétique. Dans cette étude, nous avons évalué si des profils d'expression des gènes dans le foie et le muscle squelettique pouvaient être associés à chacun des phénotypes de souris HFD. Dans ce but, nous avons développé une puce à ADN métabolique contenant approximativement 700 ADNc représentant des gènes impliqués dans les différentes voies métaboliques de l'homéostasie énergétique. Nos données indiquent que le développement de l'obésité et du diabète de type II induit par un régime gras est associé à certains défauts du métabolisme lipidique, impliquant une lipogenèse hépatique préservée et des niveaux de lipoprotéines de très faible densité (VLDL) augmentés. Au niveau du muscle squelettique, une augmentation du captage des acides gras, suggéré par l'expression augmentée de la lipoprotéine lipase, contribuerait à expliquer la résistance à l'insuline plus marquée observée chez les souris ObD. Au contraire, les souris minces ont montré une réduction marquée de l'expression des gènes lipogéniques, en particulier de la stéaroyl-CoA désaturase 1 (scd-1), un gène associé à la sensibilité au développement de l'obésité par un régime gras. Dans un deuxième temps, nous avons identifié un sous-ensemble de gènes à partir des profils d'expression, qui permettent de classifier avec une précision relativement élevée les différents groupes de souris. De tels classificateurs pourraient être utilisés dans le futur comme outils pour le diagnostic de l'état métabolique d'un tissu donné.
Resumo:
Le modèle développé à l'Institut universitaire de médecine sociale et préventive de Lausanne utilise un programme informatique pour simuler les mouvements d'entrées et de sorties des hôpitaux de soins généraux. Cette simulation se fonde sur les données récoltées de routine dans les hôpitaux; elle tient notamment compte de certaines variations journalières et saisonnières, du nombre d'entrées, ainsi que du "Case-Mix" de l'hôpital, c'est-à-dire de la répartition des cas selon les groupes cliniques et l'âge des patients.
Resumo:
Le football féminin est perçu comme un des principaux leviers de développement pour les fédérations sportives nationales et pour l'UEFA que ce soit en termes d'atteinte de nouveaux publics, de marketing et aujourd'hui de valeurs (synonyme d'un football plus « responsable »). Cette proximité entraîne des synergies que nous avons étudiées à partir d'un cadre d'analyse construit de manière ad hoc. Ce cadre s'appuie sur une approche par les stratégies d'acteurs en fonction du contexte national et local et de six domaines du fonctionnement interne des deux sections, masculine et féminine. La collecte des données s'est effectuée dans 14 grands clubs européens mixtes de neuf pays européens disposant de cultures très différentes en matière de football féminin. L'analyse des données permet d'observer trois types de modèles : totalement intégré, globalement intégré et partiellement intégré. Les résultats sont discutés aux regards des théories des ressources et des compétences stratégiques de la responsabilité sociale des organisations. Il est alors possible de poser des hypothèses de logiques de fonctionnement de ces clubs mixtes allant d'un continuum entre recherche de légitimation et exploitation d'un nouveau modèle stratégique et économique.
Resumo:
RESUME GENERAL Au cours de ces dernières années, le monoxyde d'azote (NO) produit par une famille d'enzymes, les NO synthases (NOS), est apparu comme un effecteur central dans la régulation du système cardiovasculaire et du métabolisme énergétique. Chez l'homme, un défaut de production du NO est associé à des maladies cardiovasculaires et métaboliques comme la résistance à l'insuline ou le diabète de type 2. Ces pathologies se retrouvent chez les souris invalidées pour la NO synthase endothéliale (eN0S-/-) qui présentent non seulement une hypertension mais également une résistance à l'insuline et une dyslipidémie (augmentation des triglycérides et des acides gras libres). Ces anomalies sont étroitement associées et impliquées dans le développement du diabète de type 2. Dans cette étude, nous avons essayé de déterminer à partir du modèle de souris eN0S-/-, l'influence de la eNOS et de son produit, le NO, sur la régulation du métabolisme lipidique intracellulaire. Ainsi, nous avons montré que cette enzyme et le NO régulent directement l'activité β-oxydative des mitochondries isolées du muscle squelettique, du muscle cardiaque et du tissu adipeux blanc. Par ailleurs, dans le muscle de ces souris, le contenu des mitochondries et l'expression des gènes impliqués dans leur biogénèse sont diminués, ce qui suggère que la eNOS et/ou le NO contrôlent également la synthèse de ces organelles. Les mitochondries, via la β-oxydation, sont impliquées dans la production d'énergie à partir des acides gras libres. Dans notre modèle animal, la diminution de la β-oxydation dans le muscle, s'accompagne d'une accumulation des triglycérides intramyocellulaires. Cette accumulation prédispose fortement au développement de la résistance à l'insuline. Les anomalies du métabolisme β-oxydatif favorisent donc probablement l'apparition de la dyslipidémie et le développement de la résistance à l'insuline observées chez les souris eN0S-/-. Cette hypothèse est soutenue par différentes études effectuées chez l'homme et l'animal qui suggèrent qu'une dysfonction mitochondriale peut être à l'origine de la résistance à l'insuline. Ces données récentes et les résultats de ce travail apportent un regard nouveau sur le rôle du NO dans le développement des maladies métaboliques que sont la résistance à l'insuline, le diabète de type 2 et l'obésité. Elles placent aux centres de ces mécanismes une organelle, la mitochondrie, située au carrefour des métabolismes glucidiques et lipidiques. SUMMARY Over the last years, nitric oxide (NO), synthesized by a family of enzymes, the NO synthases, has become a central regulator of the cardiovascular system and energy metabolism. In humans, defective NO production is found in cardiovascular and metabolic diseases such as insulin resistance or type 2 diabetes mellitus. These alterations are also found in knockout mice for the endothelial nitric oxide synthase (eN0S-/-), which are not only hypertensive but also display insulin resistance and dyslipidemia (with increased triglyceride and free fatty acid levels). These pathologic features are tightly linked and involved in the pathogenesis of type 2 DM. In this study, using eN0S-/- mice, we determined the role played by this enzyme and its product, NO, on intracellular lipid metabolism. We show that eNOS and NO directly regulate β-oxidation in mitochondria isolated from skeletal and cardiac muscle as well as white adipose tissue. Furthermore, in the skeletal muscle of these mice, the mitochondrial content and the expression of genes involved in mitochondrial biogenesis are decreased, suggesting that eNOS and/or NO also regulate the synthesis of this intracellular organelle. Mitochondria, through β-oxidation, play a role in energy production from free fatty acids. In our animal model, decreased β-oxidation in skeletal muscle is associated with accumulation of intramyocellular lipids. This increased lipid content plays an important role in the pathogenesis of insulin resistance. Defective β-oxidation, therefore, probably favours the development of insulin resistance and dyslipidemia as seen in these animals. This hypothesis is strengthened by studies in humans and animals indicating that mitochondrial dysfunction is associated with insulin resistance. These recent data and the results of this work provide evidence for a role of NO in the development of metabolic diseases such as insulin resistance or type diabetes mellitus. They put as a central player, an organelle, the mitochondria, which lies at the crossway of carbohydrate and lipid metabolism. RESUME DIDACTIQUE Le maintien des fonctions vitales et l'accomplissement d'une activité physique nécessitent, chez l'homme, un apport quotidien d'énergie. Cette énergie est présente, dans l'alimentation, principalement sous forme de graisses (lipides) ou de sucres. La production d'énergie s'effectue en majorité dans le muscle au niveau d'une organelle particulière, la mitochondrie. La régulation du métabolisme énergétique fait intervenir de nombreux facteurs de régulation dont l'un des plus connu est l'insuline. De nombreuses maladies comme le diabète de type 2, l'obésité ou le syndrome métabolique découlent de la dérégulation du métabolisme énergétique. Un mécanisme particulier, la résistance à l'insuline, qui se caractérise par un défaut d'action de l'insuline au niveau de ses tissus cibles (foie, muscle...) est souvent impliqué dans le développement de ces pathologies. L'étude de ces anomalies métaboliques nécessite l'utilisation de modèles, notamment animaux, qui ont la particularité de reproduire partiellement un état pathologique caractéristique de certaines maladies humaines. Dans ce travail, nous avons utilisé un modèle de souris dont la particularité est de ne pas exprimer une enzyme, la monoxyde d'azote (NO) synthase endothéliale (eNOS), responsable de la synthèse d'un gaz, le NO. Ces souris présentent une hypertension artérielle, des anomalies du métabolisme des lipides et une résistance à l'insuline. Or, de récents travaux effectués chez l'homme montrent que des individus insulino-résistants ou diabétiques de type 2 ont une diminution de la production de NO. Lors de nos investigations, nous avons démontré que la quantité et la capacité des mitochondries à utiliser les lipides comme substrat énergétique est diminuée dans les muscles des souris eN0S-/-. Par ailleurs, ces deux anomalies sont associées dans ce tissu à une accumulation des lipides. De façon très intéressante, ce phénomène est décrit dans de nombreuses études effectuées chez l'homme et l'animal comme favorisant le développement de la résistance à l'insuline. Les résultats de ce travail suggèrent donc que la eNOS et/ou le NO joue un rôle important dans l'activité et la synthèse des mitochondries. Le NO pourrait donc constituer une cible thérapeutique dans le traitement des maladies métaboliques.
Resumo:
Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
Cet article (2006) décrit la démarche qui a fondé le développement de l'instrument d'évaluation de la peur de tomber à travers des "portraits" chez des personnes âgées vivant à domicile "chuteuses ou non chuteuses" (non publiés). Une analyse qualitative originale a été développée dans ce contexte la QUAPA (QUAlitative Pattern Analysis): une analyse des patterns permettant de décrire les différents degrés d'intensité auxquels la peur de tomber est décrites par les personnes âgées elles-mêmes. Cet instrument se base sur une validité "écologique". Il s'ancre dans le vécu des personnes âgées tel qu'il est rapporté et décrit par elles. L'évaluation de la peur de tomber réalisée à l'aide de ces portraits doit être confrontée à celle effectuée à l'aide d'autres instruments validés et largement utilisés dans le domaine de l'évaluation de la peur de tomber: FES, FES-I. Autres références publiées: Piot-Ziegler C (2002). La peur de tomber: comment l'évaluer ? Actualités Psychologiques, 12, 51-68. In C. Piot-Ziegler, (Vol. Ed.), Actualités Psychologiques: Vol. 12. Les chutes chez les personnes âgées: une approche interdisciplinaire (pp. 1-120). Piot-Ziegler C, Cuttelod T et Santiago M (2007). Définir la "peur de tomber" chez les personnes âgées à domicile. Etude qualitative. Bulletin de psychologie, 60(6), nov-déc, 515-525. Références non publiées: Piot-Ziegler C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (questionnaire-portraits pour évaluer la peur de tomber chez des personnes âgées « chuteuses et non chuteuses ». Piot-Ziegler C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (Guide de l'utilisateur).L'objectif de cet article (rédigé en 2006) est de dégager un modèle permettant d'évaluer l'intensité de la peur de tomber chez des personnes âgées vivant à domicile sur la base de données qualitatives récoltées dans une première étude (étude publiée: Piot-Ziegler et al. 2007).Dans cette étude qualitative, 58 entretiens semi-structurés ont été réalisés chez des personnes âgées vivant à domicile. Les thèmes abordés par les personnes âgées montrent que la peur de tomber se définit transversalement à travers les conséquences fonctionnelles, sociales et psychologiques consécutives à leur(s) chute(s).Afin d'explorer la possible existence de patterns, permettant de rendre compte de l'intensité de la peur de tomber, une méthode originale d'analyse qualitative (non informatisée) a été développée: la QUAPA (QUAlitative Patterns Analysis).Les résultats de cette analyse montrent l'existence d'une cohérence interne transversale (patterns) dans les trois dimensions définissant la peur de tomber (fonctionnelles, sociales et psychologiques) en fonction de l'intensité de la peur de tomber. Quatre patterns différents ont été mis en évidence. Ils débouchent sur une modélisation rendant compte des différents degrés d'intensité à laquelle la peur de tomber s'exprime chez les personnes âgées.Ce modèle en "patterns" permet d'évaluer la peur de tomber ressentie par une personne âgée en fonction des conséquences fonctionnelles, sociales et psychologiques à long terme consécutives à une ou plusieurs chutes. Ce modèle devra être mis à l'épreuve sur un grand échantillon de personnes âgées vivant à domicile ou dans d'autres espaces de vie (institutions), mais il constitue une alternative originale aux questionnaires utilisés actuellement qui se basent principalement sur le concept d'efficacité personnelle. Surtout il se base sur le vécu tel qu'il est rapporté par les personnes âgées elles-mêmes.Pour obtenir le questionnaire d'évaluation par "portraits" de la peur de tomber (e.mail: Chantal.Piot-Ziegler@unil.ch). Les documents suivants seront mis à disposition.Piot-Ziegler et C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (questionnaire-portraits pour évaluer la peur de tomber chez des personnes âgées « chuteuses et non chuteuses » (Questionnaire).Piot-Ziegler et C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (Guide de l'utilisateur).Mots-clés : chute ; peur de tomber ; personne âgée ; domicile ; recherche; approche compréhensive ; évaluation ; méthode qualitative ; pattern, QUAPA.
Resumo:
Dans les laboratoires forensiques, les analyses journalières réalisées sur les produits stupéfiants concernent identification, quantification et détermination de la signature chimique. Cette approche implique la création de banques de données compilant les résultats analytiques obtenus. Les banques de données de produits stupéfiants sont approvisionnées continuellement et permettent la recherche rétrospective de liens chimiques entre différentes saisies policières, non suspectés a priori lors de l'enquête policière. Ces renseignements soutiennent l'investigation des forces de police et doivent être combinés aux informations policières traditionnelles. A un niveau international, la stratégie prônée pour l'échange en temps réel d'informations liées aux profils chimiques consiste en la création de banques de données harmonisées et partagées par les laboratoires des pays participants. Pour y parvenir, l'utilisation d'une même méthode analytique est recommandée, celle-ci étant définie par ses technologies d'analyses de séparation et de détection, par l'appareillage sélectionné pour réaliser les analyses (marque et modèle) et par les paramètres analytiques décrivant chacune des technologies d'analyse. Cette approche s'avère contraignante et longue à mettre en place en raison du travail intensif en laboratoire requis pour obtenir des résultats comparables entre différents laboratoires. De plus, elle est problématique sur le long terme pour un laboratoire en raison de l'inertie analytique et de la perte d'informations qui en découlent. En effet, selon cette approche, il n'est pas possible d'implémenter une nouvelle méthode analytique tout en approvisionnant la même banque de données en raison de la nature différente des résultats. Il faut alors créer une nouvelle banque de données approvisionnée par la nouvelle méthode analytique et en conséquence mettre à zéro la mémoire de notre connaissance, établie durant plusieurs années. Dans ce travail de recherche, une méthodologie est ainsi proposée permettant la comparaison de résultats provenant de méthodes analytiques différentes dans l'optique de l'approvisionnement d'une banque de données par ces dernières.
Resumo:
Les modèles hydrologiques développés pour les pluies extrêmes de type PMP sont difficiles à paramétrer en raison du manque de données disponibles pour ces évènements et de la complexité du terrain. Cet article présente les processus et les résultats de l'ajustement des paramètres pour un modèle hydrologique distribué. Ce modèle à une échelle fine a été développé pour l'estimation des crues maximales probables dans le cas d'une PMP. Le calcul effectué pour deux bassins versants test suisses et pour deux épisodes d'orages d'été concerne l'estimation des paramètres du modèle, divisé en deux groupes. La première concerne le calcul des vitesses des écoulements et l'autre la détermination de la capacité d'infiltration initiale et finale pour chaque type de sol. Les résultats validés avec l'équation de Nash montrent une bonne corrélation entre les débits simulés et ceux observés.
Resumo:
La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
Le taux de réadmission à 30 jours de la sortie de l'hôpital est un indicateur de la qualité de prise en charge hospitalière pouvant refléter des soins suboptimaux ou une coordination insuffisante avec les intervenants ambulatoires. Il existe un algorithme informatisé validé dénommé SQLape® qui, basé sur des données administratives suisses, les codes diagnostiques et les codes d'interventions, permet d'identifier rétrospectivement les réadmissions potentiellement évitables (REAPE), avec une haute sensibilité (96%) et spécificité (96%). Sont considérées REAPE, les réadmissions précoces (< 30 jours), non planifiées à la sortie du séjour index et dues à un diagnostic déjà actif lors du précédent séjour ou dues à une complication d'un traitement. Le but de notre étude a été d'analyser rétrospectivement tous les séjours des patients admis dans le service de Médecine Interne du CHUV entre le 1 janvier 2009 et le 31 décembre 2011, afin de quantifier la proportion de REAPE, puis d'identifier des facteurs de risques afin d'en dériver un modèle prédictif. Nous avons analysé 11'074 séjours. L'âge moyen était de 72 +/- 16,8 ans et 50,3 % étaient des femmes. Nous avons comptabilisé 8,4 % décès durant les séjours et 14,2 % réadmissions à 30 jours de la sortie, dont la moitié (7,0 %) considérées potentiellement évitables selon SQLape®. Les facteurs de risques de REAPE que nous avons mis en évidence étaient les suivants : au moins une hospitalisation antérieure à l'admission index, un score de comorbidité de Charlson > 1, la présence d'un cancer actif, une hyponatrémie, une durée de séjour > 11 jours ou encore la prescription d'au moins 15 médicaments différents durant le séjour. Ces variables ont été utilisées pour en dériver un modèle prédictif de REAPE de bonne qualité (aire sous la courbe ROC de 0,70), plus performant pour notre population qu'un autre modèle prédictif développé et validé au Canada, dénommé score de LACE. Dans une perspective d'amélioration de la qualité des soins et d'une réduction des coûts, la capacité à identifier précocement les patients à risque élevé de REAPE permettrait d'implémenter rapidement des mesures préventives ciblées (par exemple un plan de sortie détaillé impliquant le patient, son entourage et son médecin traitant) en plus des mesures préventives générales (par exemple la réconciliation médicamenteuse)
Resumo:
Un résumé en anglais est également disponible.