999 resultados para Choix discrets dynamiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The process of free reserves in a non-life insurance portfolio as defined in the classical model of risk theory is modified by the introduction of dividend policies that set maximum levels for the accumulation of reserves. The first part of the work formulates the quantification of the dividend payments via the expectation of their current value under diferent hypotheses. The second part presents a solution based on a system of linear equations for discrete dividend payments in the case of a constant dividend barrier, illustrated by solving a specific case.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude scientifique, basée sur une enquête post-électorale (N=1285), vise à analyser le cas des élections du gouvernement et du parlement du Canton du Tessin qui se sont déroulées en avril 2011. Celles-ci constituent un vrai tournant dans l'histoire électorale tessinoise. D'un côté, le taux de participation a été le plus bas depuis 1920 ; d'autre part, la Lega dei ticinesi est devenu le premier parti au Conseil d'Etat avec 2 sièges sur 5. Afin d'analyser les représentations du vote, la participation ainsi que la décision de vote (choix du parti, bulletin sans dénomination du parti, déplacement de votes), nous nous sommes inspirés de la triade conceptuelle de A. O. Hirschman (loyauté, défection et prise de parole). Les résultats montrent que ce vote tessinois ne doit pas être interprété exclusivement en termes de déclin de la loyauté (par rapport à l'acte de vote et aux partis traditionnels), comme augmentation de la défection ou "prise de parole". Au contraire, mais comme une articulation complexe de ces phénomènes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction générale : Depuis peu, la colère gronde au sein des actionnaires. Certains d'entre eux s'estiment écartés à tort de certaines décisions importantes et se plaignent de ne pouvoir exercer aucune influence sur la façon dont est gérée la société, dont ils sont pourtant propriétaires. Ce sentiment d'impuissance et même d'injustice est exacerbé par l'octroi, à certains dirigeants parfois peu scrupuleux, de rémunérations astronomiques et en décalage avec les résultats obtenus. Bien que l'assemblée générale soit, aux termes de l'art. 698 al. 1 CO, le pouvoir suprême de la société, les administrateurs et les directeurs donnent l'impression d'être omnipotents et exempts de toute responsabilité Certains actionnaires estiment en d'autres termes que les sociétés anonymes souffrent d'un manque de contrôle. Ce sentiment correspond-il à la réalité ? Notre étude tente de répondre à cette question en examinant l'éventuel rapport hiérarchique entre l'assemblée générale et le conseil d'administration, les devoirs de ce dernier, les conditions auxquelles il peut déléguer la gestion, enfin, la responsabilité de ses membres. Face à l'ampleur du sujet, nous avons été contraint d'effectuer des choix, forcément arbitraires. Nous avons décidé d'écarter la problématique des groupes de sociétés. De même, les législations sur les bourses, les banques et les fusions ne seront que mentionnées. Signalons enfin que certaines problématiques abordées par notre étude occupent actuellement le législateur. Nous avons dès lors tenu compte des travaux préparatoires effectués jusqu'à la fin de l'année 2008. Nous commencerons par étudier dans une première partie les relations et l'éventuel rapport hiérarchique entre l'assemblée générale, pouvoir suprême de la société, et le conseil d'administration, chargé d'exercer la haute direction et de gérer les affaires de la société. La détermination de leurs positions hiérarchiques respectives devrait nous permettre de savoir si et comment l'assemblée générale peut s'immiscer dans les compétences du conseil d'administration. Nous nous intéresserons ensuite à la gestion de la société, le législateur postulant qu'elle doit être conjointement exercée par tous les membres du conseil d'administration dans la mesure où elle n'a pas été déléguée. Or, comme un exercice conjoint par tous les administrateurs ne convient qu'aux plus petites sociétés anonymes, la gestion est très fréquemment déléguée en pratique. Nous examinerons ainsi les conditions formelles et les limites matérielles de la délégation de la gestion. Nous étudierons en particulier les portées et contenus respectifs de l'autorisation statutaire et du règlement d'organisation, puis passerons en revue la liste de compétences intransmissibles et inaliénables du conseil d'administration dressée par l'art. 716a al. 1 CO. Nous nous attarderons ensuite sur les différents destinataires de la délégation en insistant sur la flexibilité du système suisse, avant de considérer la problématique du cumul des fonctions à la tête de la société, et de nous demander si la gestion peut être déléguée à l'assemblée générale. Nous conclurons la première partie en étudiant la manière dont l'assemblée générale peut participer à la gestion de la société, et exposerons à cet égard les récentes propositions du Conseil fédéral. Dans une deuxième partie, nous constaterons que face à l'ampleur et à la complexité des tâches qui lui incombent, il est aujourd'hui largement recommandé au conseil d'administration d'une grande société de mettre en place certains comités afin de rationnaliser sa façon de travailler et d'optimiser ainsi ses performances. Contrairement aux développements menés dans la première partie, qui concernent toutes les sociétés anonymes indépendamment de leur taille, ceux consacrés aux comités du conseil d'administration s'adressent principalement aux sociétés ouvertes au public et aux grandes sociétés non cotées. Les petites et moyennes entreprises seraient toutefois avisées de s'en inspirer. Nous traiterons de la composition, du rôle et des tâches de chacun des trois comités usuels que sont le comité de contrôle, le comité de rémunération et le comité de nomination. Nous exposerons à cet égard les recommandations du Code suisse de bonne pratique pour le gouvernement d'entreprise ainsi que certaines règles en vigueur en Grande-Bretagne et aux Etats-Unis, états précurseurs en matière de gouvernement d'entreprise. L'étude des tâches des comités nous permettra également de déterminer l'étendue de leur propre pouvoir décisionnel. Nous aborderons enfin la problématique particulièrement sensible de la répartition des compétences en matière de rémunération des organes dirigeants. Notre troisième et dernière partie sera consacrée à la responsabilité des administrateurs. Nous exposerons dans un premier temps le système de la responsabilité des administrateurs en général, en abordant les nombreuses controverses dont il fait l'objet et en nous inspirant notamment des récentes décisions du Tribunal fédéral. Comme la gestion n'est que rarement exercée conjointement par tous les administrateurs, nous traiterons dans un deuxième temps de la responsabilité des administrateurs qui l'ont déléguée. A cet égard, nous nous arrêterons également sur les conséquences d'une délégation ne respectant pas les conditions formelles. Nous terminerons notre travail par l'étude de la responsabilité des administrateurs en rapport avec les tâches confiées à un comité de conseil d'administration. Comme le conseil d'administration a des attributions intransmissibles et inaliénables et que les principes d'un bon gouvernement d'entreprise lui recommandent de confier certaines de ces tâches à des comités spécialisés, il s'agit en effet de déterminer si et dans quelle mesure une répartition des tâches au sein du conseil d'administration entraîne une répartition des responsabilités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Animal behaviours or structures are used by senders as signals to try to increase their fitness by altering the behaviour of receivers. A large fraction of studies on sexual selection have focussed on male ornaments and have demonstrated that these ornaments signal the quality of their owner and are used by female for mate choice. Although females can also exhibit conspicuous traits, studies on female ornaments are markedly lacking. In chapter 1, we show that female starlings are showier on chest whiteness than males and that females' whiteness may potentially indicate female condition at the start of breeding and provide fitness advantages to breeding birds. Furthermore we point out that feather density and abrasion are important factors shaping the expression of chest whiteness. This suggests that further understanding of the evolution of chest whiteness in Starlings requires to examine the environmental and physiological factors that shape feather condition. Plumage may suffer from damage through abrasion and bacterial activity. In chapter 2, we focus on factors that influence feather-degrading bacterial communities. Within the hypothesis that parental care can be trade-off against the demands of self-maintenance, we show that a brood size manipulation modifies the structure of feather-degrading bacterial communities and the density of free- living bacteria. Thus we have pointed out a potentially poorly known cost of reproduction. In the same context of a trade-off between reproductive activities and individual self-maintenance, chapter 3 shows that at a proximate level in females but not in males, the individual variation in time and/or energy allocated in reproductive activities is associated with prolactin hormone levels. Our study provides evidence for the existence of a sex related difference in the relationship between brood size and prolactin levels. Birds have evolved sanitation behaviours and preen gland secretions to preserve the condition of their plumage. In chapter 4, we describe a method that allows to measure preen gland in situ. Then we use this method to characterize a number of phenotypic and ecological factors that explain variation in preen gland size in free-living individuals. In parent-offspring interactions, parents use offspring signals to provision their brood. In chapter 5, we demonstrate that nestling flanges and body skin reflect in the ultra-violet (UV) wavelengths ant that parents use this UV reflectance in food allocation decisions. Résumé Certains comportements et structures chez les animaux agissent, pour ceux qui les émettent, comme des signaux permettant d'augmenter leur fitness en altérant les comportements de ceux qui les perçoivent. Une grande partie des études sur la sélection sexuelle s'est focalisée sur les ornements mâles. Ces études ont démontré que ces ornements pouvaient signaler la qualité de celui qui les porte et influencer le choix des femelles. Bien que les femelles puissent aussi présenter des traits voyants, les études sur leurs ornements font défaut. Dans le chapitre 1 de ce travail, nous montrons que les étourneaux femelles sont plus voyantes que les mâles sur la base de la blancheur de la poitrine. De plus la blancheur des femelles peut signaler leur condition au début de la saison de reproduction et ainsi être corrélée avec leur fitness. Nous mettons aussi en évidence que la densité et l'abrasion des plumes sont des facteurs importants, contrôlant l'expression de la blancheur de la poitrine. Ceci suggère que des études futures pourraient examiner le rôle des facteurs environnementaux et physiologiques qui influencent la condition des plumes pour mieux comprendre l'évolution de la blancheur chez les étourneaux. Le plumage subit des dommages à travers l'abrasion et probablement aussi par l'activité de dégradation de bactéries. Dans le chapitre 2 de ce travail, nous nous intéressons aux facteurs qui influencent les communautés de bactéries dégradant les plumes. Nous basant sur l'hypothèse selon laquelle il existe un compromis entre les soins parentaux et la maintenance corporelle, nous montrons qu'une manipulation de la taille de nichée modifie la structure des communautés de bactéries dégradant les plumes ainsi que les densités de bactéries libres présentes sur le plumage. Ainsi nous mettons en évidence un coût encore peu connu des activités de reproduction. Dans le même contexte, nous montrons, dans le chapitre 3, que des variations individuelles dans l'énergie et/ou le temps alloué dans les activités de reproduction sont associés, chez les femelles, à un niveau proximal à l'hormone prolactine. Cette relation n'est pas présente chez les mâles. Cette étude montre que la relation entre la taille de nichée et les niveaux de prolactine diffère avec le sexe des individus. Les oiseaux utilisent des comportements de nettoyage associés aux sécrétions de la glande uropygiale afin de préserver la condition de leurs plumes. Dans le chapitre 4 de ce travail, nous décrivons une méthode qui permet de mesurer la taille de la glande in situ. Puis nous caractérisons certains facteurs écologiques et physiologiques qui expliquent les variations de la taille de la glande chez des individus capturés dans leur environnement. Les parents nourrissent leur progéniture en réponse à des signaux émis par ceux-ci. Dans le chapitre 5 de ce travail, nous démontrons que les commissures et la peau sur le corps des oisillons reflètent la lumière dans l'ultraviolet. Nous montrons que les parents utilisent cette réflexion dans l'ultraviolet lors de l'allocation de nourriture pour leurs jeunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet s'intéresse aux socialisations des jeunes cyclistes sur route dans la phase de la carrière où ils deviennent des espoirs nationaux. Pour certains, cela correspond au passage d'une structure sportive amateur de haut niveau vers une équipe professionnelle. Cette phase semble constituer un moment clé de la consommation de produits dopants. Ces espoirs sont exposés à un nouvel environnement et une nouvelle logique professionnelle s'impose à eux, avec ses espoirs de carrière et de profits et ses risques. Ils sont confrontés à de nouveaux groupes sociaux avec lesquels s'établit un système d'interactions. Avec le temps, ces groupes vont notamment inculquer aux jeunes coureurs de nouvelles normes en matière de santé, de fatigue, d'expériences, d'éthique et d'entraînement.Il s'agit plus particulièrement d'observer les modes de socialisation des jeunes espoirs du cyclisme pour comprendre comment s'immiscent les pratiques de dopage dans les biographies des sportifs. Dans une optique de prévention, ce travail se propose d'étudier les effets de la socialisation. Comme le souligne H. Becker (1985), la déviance est le fruit d'un acte collectif. Il s'agit alors de comprendre comment, au contact de divers groupes encadrants (pairs, entraîneurs, dirigeants, médecins), les savoir-faire mais aussi les normes, les valeurs se construisent au cours de la phase de socialisation professionnelle. Il est important de comprendre les effets des interactions entre ces groupes et le jeune espoir. Cette socialisation semble correspondre à l'inculcation d'une culture cycliste qu'il s'agira de décrire en prenant en compte deux formes de transmission des normes : une explicite, à certains moments de la journée, où sont abordées les techniques de course, les tactiques, les modes d'entraînement et une implicite, pendant laquelle sont diffusées des valeurs qui conduisent le sportif à faire le choix du dopage. Dans le cas du dopage, nous nous intéresserons notamment aux normes de santé, d'éthique, aux conceptions de la pratique sportive en adéquation avec le suivi médical pendant la phase amateur puis néo-professionnelle. La formation, ou transformation, de ces représentations sera appréhendée à travers les interactions entre coureurs et encadrement lors des différents moments de leur quotidien. Il s'agira également d'étudier le cadre social de ces interactions. A partir des récits de vie collectés, nous essayerons de déterminer les moments où les choix s'opèrent et nous y analyserons les conduites.L'acquisition des représentations associées au dopage est le produit du double mouvement de l'action sociale des individus et des effets des structures organisationnelles et institutionnelles. En conséquence, nous nous intéresserons également à l'influence des différents dispositifs tels que la famille, l'école, le club, la structure médicale, la fédération nationale, sur les représentations des coureurs.Cette étude reposera sur une analyse comparée des cyclistes belges, français et suisses. Les carrières seront analysées à partir d'entretiens semi-directifs (75) auprès de (1) jeunes athlètes (18-23 ans) qui vivent les phases de professionnalisation, (2) d'anciens cyclistes ayant vécu les normes de socialisation du milieu et (3) des acteurs clefs de l'organisation des différents dispositifs (entraîneurs, dirigeants, médecins). Notre démarche méthodologique s'adosse à celles déjà expérimentées dans des travaux antérieurs (notamment, Brissonneau, 2003).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèseLes troubles de la glycosylation (Congenital Disorders of Glycosylation, CDG) regroupent une famille de maladies multi-systémiques héréditaires causées par des défauts dans la synthèse de glycoconjugés. La glycosylation est une réaction enzymatique consistant à lier de façon covalente un glucide à une chaîne peptidique ou une protéine. Il existe deux types de glycosylation. La N-gjycosylation est l'addition de glucides aux chaînes peptidiques en croissance dès leur entrée dans la lumière du réticulum endoplasmique. Elle s'effectue sur les futures glycoprotéines membranaires et conduit à des chaînes de sucres courtes et ramifiées. La O-glycosylation est l'addition de glucides au niveau des résidus hydroxylés des acides aminés sérine et thréonine des chaînes peptidiques déjà présentes dans la lumière de l'appareil de Golgi. Elle est, dans la plupart des cas, effectuée sur îes protéoglycanes et conduit à des chaînes de sucres longues et non ramifiées. La classification des CDG repose sur le niveau de l'étape limitante de la glycosylation. Les CDG de type 1, plus fréquents, regroupent les déficits enzymatiques se situant en amont du transfert de Poligosaccharide sur la chaîne peptidique. Les CDG de type 2 regroupent ceux ayant lieu en aval de ce transfert. Parmi les nombreux différents sous-types de CDG, le CDG de type ld est causé par une anomalie de la mannosyltransferase, enzyme codée par le gène ALG3 (chromosome 3q27). Jusqu'à ce jour, six patients atteints de CDG ld ont été reportés dans la littérature. Notre travail a permis de décrire un septième patient et d'affiner les caractéristiques cliniques, biologiques, neuroradiologiques et moléculaires du CDG ld. Notre patient est notamment porteur d'une nouvelle mutation de type missense sur le gène ALG3. Tous les patients atteints de CDG ld présentent une encéphalopathie progressive avec microcéphalie, retard psychomoteur sévère et épilepsie. Une ostéopénie marquée est présente chez certains patients. Elle est parfois sous diagnostiquée et révélée uniquement lors de fracture pathologique. Les patients atteints de CDG ld présentent également des traits dysmorphiques typiques, mais aucune atteinte multi-systémique ou anomalie biologique spécifique n'est retrouvée telle que dans les autres types de CDG. Le dépistage biochimique des troubles de la glycosylation se fait par une analyse simple et peu coûteuse qui est l'analyse de la transferrine sérique par isoelectrofocusing ou par électrophorèse capillaire. Un tel dépistage devrait être effectué chez tout patient présentant une encéphalopathie d'origine indéterminée, et cela même en l'absence d'atteinte multi- systémique. Notre travail a été publié sous forme d'article de type « short report », peer-reviewed, dans le Journal of Inherited Metabolic Diseases. Le Journal est une révue spécialisée du domaine des erreirs innées du métabolisme. S'agissant d'un seul patient rapporté, l'article ne montre que très synthétiquement le travail effectué, Pour cette raison un complément à l'article avec matériel, méthodes et résultats figure ci-après et concerne la partie de recherche moléculaire de notre travail. La doctorante a non seulement encadré personnellement le patient au niveau clinique et biochimique, mais a plus particulièrement mis au point l'analyse moléculaire du gène ALG3 dans le laboratoire de Pédiatrie Moléculaire pour la première fois ; cela a impliqué l'étude du gène, le choix des oligonucleotides et l'optimisation des réactions d'amplification et séquençage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Commençant par la compréhension du processus de prise de décisions en politique économique, puis par l'étude de la participation des Acteurs Sociaux (AS), pour aboutir à l'éclaircissement de leur rôle en politique économique. Le choix des AS correspond aux facteurs productifs :¦? Travail : Syndicat, Confédérations¦? Capital : Patronat, Groupes économiques¦? Ressources naturelles - inclus l'Economie clandestine¦? Esprit d'entreprise dans tous les AS¦Méthode : analyse institutionnelle, AS comme protagonistes. Contexte latino-américain et mondial (chapitre I), relation avec les Politiques (chapitre II), identification des positionnements face aux Politiques économiques (chapitre III). Etude sur deux périodes :¦1) Front National (FN) (1958-1986). Pacte de partis traditionnels pour l'obtention (non accomplie) de la paix et du développement. Objectif acquis via des politiques adéquates mais sans amélioration du domaine social (politique de revenu absente).¦En conséquence, développement des Cartels surpassant l'Intégration Andine. Echec des tentatives d'Ouverture précoce grâce aux Centrales syndicales (1977) aux Organisations patronales (1981), confirmant le bipartisme; crise de la dette sans cessations de paiements, ni décennie perdue (Colombie) ; développement des AS profitant d'absence de partis d'opposition.¦2) L'Ouverture (1989-2000) : Nouvelle Constitution avec amplifications de l'Etat, réformes financière, des échanges, sans sélectivité ni gradualité demandées par les AS. Emergence du blanchiment.¦Montée en puissance des Groupes économiques au détriment des Organisations patronales, (excepté les industriels), perte du lobbying syndical. Malgré des résultats positifs macro-économiques, les taux de chômage, secteur informel, et pauvreté, situent¦le pays au 2eme rang en concentration du revenu en Amérique latine et au 5eme rang mondial.¦Conclusion : les AS se sont mis en avant dans l'inflation (30% à 8%) et la dévaluation. Par contre, les taux d'intérêt et de change ont provoqué le crédit clandestin et la réévaluation avec ouverture aux importations ; pas de succès non plus sur le déficit fiscal ni la gestion des booms (café, drogues). La plupart des Politiques ont donc été décidées d'après la Banque centrale et le Ministère des finances confirmant la primauté du gouvernement sur les AS durant la période analysée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME BUT Cette étude a été menée sur le suivi de patients traités pour un glioblastome nouvellement diagnostiqué. Son objectif a été de déterminer l'impact des séquences de perfusion et de diffusion en imagerie par résonance magnétique (IRM). Un intérêt particulier a été porté au potentiel de ces nouvelles techniques d'imagerie dans l'anticipation de la progression de la maladie. En effet, l'intervalle de temps libre de progression est une mesure alternative de pronostic fréquemment utilisée. MATERIEL ET METHODE L'étude a porté sur 41 patients participant à un essai clinique de phase II de traitement par temozolomide. Leur suivi radiologique a comporté un examen IRM dans les 21 à 28 jours après radiochimiothérapie et tous les 2 mois par la suite. L'évaluation des images s'est faite sur la base de l'évaluation de l'effet de masse ainsi que de la mesure de la taille de la lésion sur les images suivantes : T1 avec produit de contraste, T2, diffusion, perfusion. Afin de déterminer la date de progression de la maladie, les critères classiques de variation de taille adjoints aux critères cliniques habituels ont été utilisés. RESULAT 311 examens IRM ont été revus. Au moment de la progression (32 patients), une régression multivariée selon Cox a permis de déterminer deux paramètres de survie : diamètre maximal en T1 (p>0.02) et variation de taille en T2 (p<0.05). L'impact de la perfusion et de la diffusion n'a pas été démontré de manière statistiquement significative. CONCLUSION Les techniques de perfusion et de diffusion ne peuvent pas être utilisées pour anticiper la progression tumorale. Alors que la prise de décision au niveau thérapeutique est critique au moment de la progression de la maladie, l'IRM classique en T1 et en T2 reste la méthode d'imagerie de choix. De manière plus spécifique, une prise de contraste en T1 supérieure à 3 cm dans son plus grand diamètre associée à un hypersignal T2 en augmentation forment un marqueur de mauvais pronostic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1.1 Objectifs Le syndrome de bas débit cardiaque est une appréciation clinique (Hoffman et al.) dont les signes sont peu sensibles, peu spécifiques, souvent tardifs et dont la mesure chez l'enfant est rendue impossible en clinique pour des raisons techniques et de fiabilités des systèmes de mesures. Aucun score n'est applicable à l'heure actuelle chez l'enfant. C'est pourquoi, ces 10 dernières années, de nombreuses équipes se sont penchée activement sur ce problème afin de définir des marqueurs performants prédisant la survenue du LCOS après chirurgie cardiaque chez l'enfant. Cette étude s'est attachée à réunir ses marqueurs cardiaques, de les combiner et de les inclure dans un score de bas débit cardiaque. 1.2 Méthode Enfants et nouveau-nés ayant subit une chirurgie cardiaque au CHUV, après malformation cardiaque congénitale, entre janvier 2010 et octobre 2011 (N=48). Age : 8 jours à 13 ans (médiane : 16.3 mois). Deux scores développés. Soumission à l'aveugle de la liste des patients à un comité d'expert pour identifier les patients en LCOS à 48h post-chirurgie, puis comparaison avec le résultat du score. Les paramètres du premier score (SCORE 1), sont agendées de manière ordinales, alors que dans le deuxième score (SCORE 2) elles le sont de manière dichotomiques. Valeurs cut-off supérieures et inférieures des scores choisies selon une recherche extensive dans la littérature. Les valeurs cut-off intermédiaires (SCORE 1) ont été choisies au hasard. 1.3 Résultats La régression logistique multivariée pour la prédiction d'un LCOS à 48h, démontre que seul le score d'amine durant les 24 premières heures et un prédicteur indépendant de LCOS (OR 16.6 [2.6- 105.5] p<0.0001). Ce paramètre est bien corrélé avec le résultat des experts avec un coefficient de corrélation r=0.57 (p<0.0001). Les spécificités des deux scores (AUC=0.78 (p<0.0001) respectivement AUC=0.81 (p<0.0001)) sont de 71% respectivement 93.5%, les sensibilités de 70.6% respectivement 41.2 %, VPP de 57.1% respectivement 77.8%, VPN de 81.5 % respectivement 74.4%. Les tests du khi2 valent 7.7 (p=0.006) respectivement 8.69 (p=003), rejettent l'hypothèse nulle d'indépendance entre le résultat des experts et celui prédit par le score. 1.4 Conclusions Les scores développés dans le cadre de cette étude ne montrent pas une corrélation significative avec l'apparition d'un bas débit cardiaque. Même si le choix des paramètres permettant de quantifier l'apparition d'un bas débit cardiaque à 48h fût réalisé selon une recherche extensive dans la littérature, le design rétrospectif de l'étude, n'a pas permit de vérifier efficacement la relation entre l'apparition d'un bas débit cardiaque et le score de bas débit cardiaque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En Suisse, un peu moins de 5 % de la population se déclarent musulmans. Originaires pour la majeure partie des grandes vagues migratoires de la fin du XXe siècle, les musulmans helvétiques sont le plus souvent identifiés individuellement. Ce livre présente la réalité institutionnelle et peu connue de l'islam en Suisse à partir de plusieurs enquêtes menées sur la manière dont il s'organise. Sa présence est très diversifiée selon les contextes cantonaux différents et les origines culturelles bien contrastées d'un musulman des Balkans, du Maghreb ou de la Turquie. Ces recherches menées par des sociologues et des politologues dessinent une mosaïque qui montre à partir de l'islam pratiquant et confessant qu'il ne peut être réduit aux formes conservatrices et violentes que certains considèrent comme la traduction obligée de toute posture musulmane. Cet ouvrage propose un portrait contrasté de l'islam en Suisse avec, d'une part, des ensembles qui tentent d'organiser légitimement leur culte et de maintenir leur héritage religieux et, d'autre part, des défis déterminants à relever pour l'intégration des fidèles, comme les liens avec le pays d'origine, l'indépendance financière des mosquées ou les questions relatives aux revendications religieuses ou culturelles de l'identité musulmane. A partir de la réalité musulmane, ce livre expose toute l'ambiguïté de nos sociétés « tolérantes » et « ouvertes », mais démunies et contradictoires face à l'émergence récente de la pluralité religieuse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite à la demande du Président de la République de disposer d'indicateurs de mortalité en établissements de santé » (discours du 18 septembre 2008 sur le thème de la politique de la santé et de la réforme du système de soins), la Direction de la recherche, des études, de l'évaluation et des statistiques (DREES) a piloté en 2009, en lien avec la Direction générale de l'offre de soins (DGOS) et la Haute autorité de santé (HAS), l'instruction des aspects méthodologiques relatifs à la construction de ces indicateurs de mortalité. Cette revue de littérature portant sur les différentes méthodes d'ajustement a été réalisée dans ce cadre, à la demande conjointe de la DREES et de la HAS.Ce rapport décrit les méthodes et modèles d'estimation et d'ajustement de la mortalité hospitalière identifiées dans la littérature.Il ressort de cette revue, que d'une manière générale, trois questions méthodologiques majeures préoccupent les épidémiologistes, les chercheurs et les décideurs s'intéressant à l'indicateur de la mortalité hospitalière : i) premièrement, sur l'opportunité d'établir l'indicateur de mortalité hospitalière à partir de groupes de population de patients homogènes définis par des pathologies et/ou des procédures médicales/chirurgicales cibles ; ii) deuxièmement, sur le type d'approche analytique et de l'intérêt de prendre en compte plusieurs niveaux dans l'analyse statistique ; iii) enfin troisièmement, sur le choix des variables d'ajustement permettant de contrôler les différences de case-mix entre plusieurs établissements ou groupes de patients pour réaliser des comparaisons. [Ed.]