1000 resultados para analyse des catégorisations
Resumo:
Comment l'analyse chimique des produits contrefaits peut-elle contribuer à mieux comprendre le phénomène de la contrefaçon?Pour appréhender cette question, une approche novatrice basée sur l'analyse par SPME GC-MS des composés volatils de trente-neuf bracelets parfumés présents sur des contrefaçons horlogères a été mise en oeuvre.La détection de plusieurs dizaines de composés par montre a permis de définir des profils chimiques discriminants. Au total, trois groupes de montres possédant des profils comparables ont été détectés. Ces groupes ont été mis en perspective de liens physiques détectés sur la base du marquage des bracelets (marques et logos) par la fédération de l'industrie horlogère suisse (FH) et des informations spatiotemporelles des saisies. Les montres provenant d'une même saisie présentent systématiquement des liens physiques, mais pas forcément des profils chimiques similaires. Il en ressort que les profils chimiques peuvent fournir une information complémentaire à l'analyse des marquages, qu'ils varient peu dans le temps et que des montres liées chimiquement sont retrouvées dans le monde entier. Cette étude exploratoire révèle ainsi le potentielle d'exploitation de techniques d'analyse complémentaires pour mieux comprendre les modes de production, voire de diffusion de la contrefaçon. Finalement, la méthode analytique a permis de détecter des composés de plastiques en sus des constituants de parfums. Ce résultat laisse entrevoir la possibilité d'exploiterla méthode pour une large gamme de produits contrefaits.
Resumo:
[Table des matières] 1. Introduction. 2. Analyse des files actives 2001 et 2007. 2.1 Comparaison des 3 groupes d'usagesrs dans les deux files actives. 3. Trajectoire des patients présents en 2001. 3.1 Continuité et arrêts de traitements. 4. Analyse de survie: durées de traitement de substitution et des interruptions. 5. Annexe.
Resumo:
Résumé Ce travail s'intéresse à la mise en oeuvre des politiques publiques visant à résoudre les problèmes engendrés par le développement de la mobilité urbaine. Nous adoptons sur cette dernière un point de vue nouveau, à savoir que l'enjeu de la régulation du trafic est d'abord celui de la maîtrise des usages nombreux et conflictuels sur deux ressources collectives, l'air et les voies publiques. Pour comprendre comment ces usages sont régulés, nous mobilisons les deux apports théoriques de l'économie institutionnelle (Bromley 1991, Devlin et Grafton 1990, Ostrom 1990, 2000) et de l'analyse des politiques publiques (Knoepfel et al. 2001) au sein du cadre d'analyse des régimes institutionnels de ressources collectives. La première problématise la difficulté de définir des règles communes d'usage pour éviter la surexploitation des ressources alors que la seconde met en jeu notamment le problème de la coordination des politiques publiques d'exploitation et de protection de l'environnement. Sur ce socle, nous choisissons de retenir une approche « institutionnaliste centrée sur les acteurs » (Scharpf 1997), aussi thématisée par les approches néo-institutionnalistes (Hall/Taylor 1996, March/Olsen 1989) visant à expliquer le changement politique par deux types de variables explicatives, à savoir les changements dans la régulation publique (variable institutionnelle) et les changements de la configuration des acteurs en présence, à partir desquels nous bâtissons nos hypothèses de recherche. En l'espèce, l'étude mobilise la variable explicative des régimes institutionnels de l'air et du sol mobilisés par les acteurs de la mobilité pour comprendre l'évolution de la répartition des usages sur les routes urbaines. Ce processus passe par le recours à des ressources de politiques publiques comme le droit, l'argent, l'information, le consensus, le soutien politique, l'infrastructure ou le temps que les acteurs peuvent activer en fonction des règles institutionnelles en présence. On peut classer ces dernières d'abord selon leur niveau de généralité (niveaux opérationnel, des choix collectifs et constitutionnel - Ostrom 1990). L'étude établit que la régulation des usages connaît une importante gradation que rend compte le concept de résistance normative. En fonction de cette dernière, les acteurs essaient de s'imposer au moyen de deux dimensions des règles, que ce travail met en exergue, à savoir selon qu'elles régulent tantôt le mode de décision tantôt le mode d'appropriation. Ces règles décisionnelles et possessionnelles déterminent les possibilités d'accès, ainsi que la procédure d'intervention et la place qui sont réservées aux acteurs, aussi bien pour les ressources collectives physiques que de politique publique. L'étude permet ainsi à la fois d'apporter des éléments nouveaux à la théorie des changements de régimes institutionnels de ressources collectives, d'éclairer un peu plus les processus de mise en couvre de l'action publique et de contribuer au débat sur les principales propositions permettant de maîtriser les impacts négatifs du développement de la mobilité.
Resumo:
Résumé Objectifs : Le but de ce travail est, dans un premier temps, de mettre en évidence les mécanismes qui gouvernent les rivalités d'usage concernant la ressource paysage, afin, dans un deuxième temps, de comprendre comment se résolvent ces différends. Il part du postulat central que l'existence de rivalités d'usage non apaisées nuit à la durabilité de la ressource. Trois types d'acteurs gravitant autour de la ressource paysage doivent être distingués -Les observateurs du paysage sont ceux qui utilisent directement les services fournis par la ressource (p. ex. les touristes « écologiques », les randonneurs, les amoureux de la nature ; dans les conflits, ils peuvent être représentés par les organisations de protection du paysage) ; -Les fournisseurs du paysage servent d'intermédiaires entre le paysage et les observa¬teurs ; ils utilisent le paysage pour attirer des clients ; ils monnayent l'accès au paysage (billet de transport, hôtels, restaurant panoramique) ; ils vendent des représentations du paysage ; -Les utilisateurs des ressources « primaires » (sol, eau, forêt...) ne se préoccupent pas de paysage : ils entretiennent une configuration particulière de ressources primaires qui fait naître chez l'observateur le sentiment qu'il contemple un paysage. Ces catégories analytiques ne sont pas hermétiques, car un même acteur peut se trouver dans plusieurs catégories à la fois. Cadre d'analyse : Sur la base de la typologie des acteurs présentée, il est possible de mettre en évidence six types de rivalités théoriques, chacune opposant entre eux des observateurs, fournisseurs et utilisateurs de ressources primaires. Dans une situation de rivalité, les différents acteurs mobilisent les droits qu'ils ont à disposition pour défendre leurs intérêts. Le cadre d'analyse des régimes institutionnels de ressources naturelles (RIRN) est utilisé afin de mettre en évi¬dence ces droits. Il permet de faire la différence entre le système régulatif de la ressource, qui fait référence aux phénomènes d'appropriation (à défaut de propriété, car le paysage n'entre pas facilement dans les canons définis par le code civil), et les politiques publiques, qui ré¬glementent ces phénomènes d'appropriation. Le cadre des RIRN a la prétention de tisser un lien entre l'économie institutionnelle des ressources naturelles, préoccupée avant tout par la question des droits sur les ressources, et une approche plus politologique, dont les politi¬ques publiques constituent l'objet d'étude. Résultats : Dans le contexte de trois études de cas (le val Baltschieder, la région d'Aletsch et le parc naturel régional de Chartreuse), les conflits paysagers ont été mis en évidence. Les acteurs en présence ont été identifiés, de même que les droits dont ils disposent pour protéger leurs intérêts. Ce travail a démontré que les rivalités entre observateurs (p. ex. surdensité de visi¬teurs), ainsi que celles entre observateurs et utilisateurs de ressources primaires ne trouvent pas de solution sans l'intervention d'une structure de gestion paysagère particulière. Cette dernière peut prendre différentes formes qui doivent toutefois respecter un certain nombre de critères développés dans le travail. Dans le contexte des études de cas, différents modèles d'organisation susceptibles de jouer ce rôle ont été mis en évidence. De telles organisations collectives constituent une des clés pour une gestion durable de la ressource paysage.
Resumo:
Alors que la sémiotique et ses propositions méthodologiques d'analyse des discours sont bien répandues dans les milieux scientifiques, son utilisation sur des signes issus du monde des entreprises reste pourtant très limitée par rapport à sa contribution potentielle à la description et à l'explication de problèmes de marketing. Il est dès lors intéressant de montrer - indépendamment des orientations prises par la sémiotique - quel est l'objet de sa recherche ? Quels sont les outils qu'elle a développés ? Et quels sont les discours de marketing sur lesquels ces outils ont été appliqués? Enfin, on se penchera sur les problèmes qui limitent un usage plus étendu des outils sémiotiques en marketing tout en précisant les perspectives de recherche.
Resumo:
Cette contribution se penche sur les initiatives participatives conçues et mises en oeuvre par la Ville de Genève. Elle se compose d'une première partie, retraçant les principales lignes conceptuelles soutenant la démocratie participative; ceci aussi bien dans le domaine des sciences politiques, que dans celui des disciplines psychosociales. La deuxième partie est constituée d'un inventaire et une analyse des principaux processus participatifs s'étant déroulé dans la commune au cours de ces dix dernières années. Leurs caractéristiques et effets sont examinés selon une grille comprenant trois critères : - les résultats substantiels, inhérents à la pertinence des décisions issues des processus participatifs - la promotion de la cohésion et émancipation sociales, obtenues par le biais de dispositifs participatifs - l'ouverture de l'espace politique, au niveau local, que l'on peut attribuer à la poursuite de la participation comme mode d'intervention au sein de la collectivité. L'étude a été effectuée dans le cadre d'un mandat confié à l'étudiante par l'Unité Agenda 21 de la Ville de Genève. Elle servira comme base de travail pour un groupe d'accompagnement chargé de mettre en place des standards et une marche à suivre en matière de participation pour l'ensemble de la commune, conformément aux Engagements d'Aalborg, auxquels la Ville de Genève a adhéré en 2010. Il convient cependant de noter que le choix des données récoltées, ainsi que la critique qui en est présentée, sont de la seule responsabilité de l'autrice.
Resumo:
In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.
Resumo:
La thèse traite des injonctions à l'autonomie dans le champ scolaire et des pratiques destinées à favoriser son développement chez les élèves. Elle se base sur une enquête ethnographique réalisée dans une école primaire genevoise, réunissant des observations menées durant deux ans et demi dans des classes allant de la 2° enfantine à la 3e primaire (2P-5P, selon HARMOS) et des entretiens d'enseignants, complétée par des observations dans les familles et des entretiens d'enfants et de leurs parents. Elle met en évidence le paradoxe auquel sont quotidiennement confrontés les enseignants qui doivent amener les élèves à découvrir et s'approprier les savoirs et les règles scolaires de manière autonome, tout en encadrant leurs pratiques afin que ceux-ci se conforment aux attentes de l'institution scolaire. La notion de dispositif, en tant qu'échelle intermédiaire d'analyse (Bonnéry, 2009), rend possible l'articulation des niveaux macro- et micro-sociologique dans l'analyse des pratiques. L'analyse des dispositifs scolaires de l'autonomie considère la traduction de la norme d'autonomie et des injonctions institutionnelles dans les pratiques individuelles. L'autonomie est ici définie comme un principe de socialisation, sur le mode de l'engagement : les dispositifs scolaires de l'autonomie visent à amener les élèves à choisir, vouloir, aimer ce que l'institution scolaire leur demande. Cette analyse permet de dégager plusieurs types de dispositifs et surtout de mettre en lumière leurs contradictions internes lorsque ne sont pas perçues ou partagées par les acteurs les attentes implicites ou explicites contenues dans les dispositifs. L'analyse des dispositifs porte également, dans une perspective plus interactionniste, sur les stratégies individuelles de gestion des contradictions et la retraduction des normes par les acteurs. Les dispositifs sont alors examinés sous l'angle des processus d'étiquetage réalisé par les enseignants et des formes de déviances qu'ils font apparaître chez les élèves et les parents. - The thesis deals with injunctions to autonomy in the field of education and practices used to facilitate its development in students. It is based on an ethnographic survey in Geneva elementary school, bringing together observations made during two and a half years in classes ranging from 2P to 5P (according HARMOS), interviews with teachers, observations in families and interviews with children and their parents. It highlights the paradox that teachers are daily confronted to, as they should encourage students to discover and acquire the knowledge and school rules independently, while framing their practices so that they conform to the expectations of the educational institution. The concept of dispositif as an intermediary level of analysis (Bonnéry, 2009) makes possible the articulation of the macro- and micro-sociological analysis in practices. The analysis of pedagogic dispositives considers the translation of the norm of autonomy and institutional injunctions in individual practices. In this perspective, autonomy is defined as principle of socialization, on the mode of engagement : pedagogic autonomy dispositives designed to encourage students to choose, want, love what institution demands. This analysis identifies several types of dispositives and highlights their internal contradictions when actors do not share expectations. In a more interactionnist perspective, the analysis also includes individual strategies to deal with contradictions and the retranslation of norms by actors. The dispositives are then examined in term of the labelling process conducted by teachers and forms of deviance among students and parents.
Resumo:
RESUME La méthode de la spectroscopie Raman est une technique d'analyse chimique basée sur l'exploitation du phénomène de diffusion de la lumière (light scattering). Ce phénomène fut observé pour la première fois en 1928 par Raman et Krishnan. Ces observations permirent à Raman d'obtenir le Prix Nobel en physique en 1930. L'application de la spectroscopie Raman a été entreprise pour l'analyse du colorant de fibres textiles en acrylique, en coton et en laine de couleurs bleue, rouge et noire. Nous avons ainsi pu confirmer que la technique est adaptée pour l'analyse in situ de traces de taille microscopique. De plus, elle peut être qualifiée de rapide, non destructive et ne nécessite aucune préparation particulière des échantillons. Cependant, le phénomène de la fluorescence s'est révélé être l'inconvénient le plus important. Lors de l'analyse des fibres, différentes conditions analytiques ont été testées et il est apparu qu'elles dépendaient surtout du laser choisi. Son potentiel pour la détection et l'identification des colorants imprégnés dans les fibres a été confirmé dans cette étude. Une banque de données spectrale comprenant soixante colorants de référence a été réalisée dans le but d'identifier le colorant principal imprégné dans les fibres collectées. De plus, l'analyse de différents blocs de couleur, caractérisés par des échantillons d'origine inconnue demandés à diverses personnes, a permis de diviser ces derniers en plusieurs groupes et d'évaluer la rareté des configurations des spectres Raman obtenus. La capacité de la technique Raman à différencier ces échantillons a été évaluée et comparée à celle des méthodes conventionnelles pour l'analyse des fibres textiles, à savoir la micro spectrophotométrie UV-Vis (MSP) et la chromatographie sur couche mince (CCM). La technique Raman s'est révélée être moins discriminatoire que la MSP pour tous les blocs de couleurs considérés. C'est pourquoi dans le cadre d'une séquence analytique nous recommandons l'utilisation du Raman après celle de la méthode d'analyse de la couleur, à partir d'un nombre de sources lasers le plus élevé possible. Finalement, la possibilité de disposer d'instruments équipés avec plusieurs longueurs d'onde d'excitation, outre leur pouvoir de réduire la fluorescence, permet l'exploitation d'un plus grand nombre d'échantillons. ABSTRACT Raman spectroscopy allows for the measurement of the inelastic scattering of light due to the vibrational modes of a molecule when irradiated by an intense monochromatic source such as a laser. Such a phenomenon was observed for the first time by Raman and Krishnan in 1928. For this observation, Raman was awarded with the Nobel Prize in Physics in 1930. The application of Raman spectroscopy has been undertaken for the dye analysis of textile fibers. Blue, black and red acrylics, cottons and wools were examined. The Raman technique presents advantages such as non-destructive nature, fast analysis time, and the possibility of performing microscopic in situ analyses. However, the problem of fluorescence was often encountered. Several aspects were investigated according to the best analytical conditions for every type/color fiber combination. The potential of the technique for the detection and identification of dyes was confirmed. A spectral database of 60 reference dyes was built to detect the main dyes used for the coloration of fiber samples. Particular attention was placed on the discriminating power of the technique. Based on the results from the Raman analysis for the different blocs of color submitted to analyses, it was possible to obtain different classes of fibers according to the general shape of spectra. The ability of Raman spectroscopy to differentiate samples was compared to the one of the conventional techniques used for the analysis of textile fibers, like UV-Vis Microspectrophotometry (UV-Vis MSP) and thin layer chromatography (TLC). The Raman technique resulted to be less discriminative than MSP for every bloc of color considered in this study. Thus, it is recommended to use Raman spectroscopy after MSP and light microscopy to be considered for an analytical sequence. It was shown that using several laser wavelengths allowed for the reduction of fluorescence and for the exploitation of a higher number of samples.
Resumo:
Résumé: Ce travail porte sur la formation des enseignants de yoga européens dans la deuxième partie du 20ème s. Il analyse la construction de leur qualification et de leur éligibilité par rapport aux modalités indiennes de la transmission. Pour ce faire, il étudie l'émergence de l'enseignant de yoga européen au sein de l'Union européenne de yoga (fondée en 1972), une institution promouvant un yoga holiste qui n'a pas encore fait l'objet d'une étude de cas. Le devenir européen des modalités de transmission est étudié à travers la rencontre de l'Union européenne de yoga avec son partenaire indien privilégié, le lignage de l'ācārya T. Krishnamacharya et en particulier avec le fils de ce dernier, T.K.V. Desikachar. Privilégiant l'analyse du matériel constitué par les revues de yoga, ce travail démontre comment la qualification de l'enseignant de yoga européen se construit dans les années 1960- 1990 dans l'interaction que les formateurs européens entretiennent avec le partenaire indien de la rencontre (chap. 2 et 3). L'Union, qui réunit plusieurs fédérations nationales de yoga et plusieurs traditions de yoga, est l'une des premières institutions à mettre en place, en 1976, un diplôme à l'intention des enseignants de yoga. Les caractéristiques de cette formation sont identifiées à travers l'analyse des curriculums mis en place par les formateurs de l'Union (chap. 4). Les acteurs prennent soin de motiver les spécificités de leur enseignement - celles qu'ils revendiquent et celles dont leurs adversaires les accusent - par des notions empruntées aux textes indiens du yoga et par la construction d'une « scène autorisante », le Congrès annuel de yoga de Zinal (chap. 5). Ce travail étudie la mise en place, par l'Union, d'un discours de la « pédagogie européenne du yoga » et d'une logique d'alliance entre certains lignages européens de yoga et celui de T. Krishnamacharya pour revendiquer des innovations dans la transmission du yoga en Europe : par exemple, la promotion des Yoga-Sūtra, le respect des différences individuelles chez l'élève, l'autorité féminine sur le yoga et la réhabilitation d'un christianisme alternatif. Ce travail démontre aussi que, dans le contexte contemporain, le yoga est un lieu de débats entre une conception traditionnelle et initiatique de la transmission et une conception pédagogique imprégnée de valeurs égalitaires et libertaires. Le travail identifie les points d'achoppement de cette rencontre autour des notions de la transmission indienne telle qu'adhikāra (l'éligibilité différenciée) ou sraddhā (la confiance dans le maître) en concluant par une analyse de la négociation de l'autorité spirituelle entre T.K.V. Desikachar et ses élèves (chap. 6).
Resumo:
Introduction : Depuis 2005, le « Test FIFA » est utilisé chez les arbitres de football, comme critère de sélection pour monter dans les échelons de l'arbitrage et chaque arbitre base son entraînement dans cet objectif. Ce test a été développé grâce aux nombreux travaux scientifiques, ayant utilisé l'analyse vidéo, afin de quantifier les activités de match des arbitres et analyser leur performance en cours de match. Objectifs : Le but de ce travail a été d'évaluer la performance de l'arbitre, lors d'un match de football, au moyen d'un accéléromètre en raison de sa facilité d'utilisation et en particulier d'évaluer si au cours du match, il existe une éventuelle diminution de la capacité de performance engendrée par la fatigue. Enfin, à la lumière des résultats, nous avons pu discuter du bien fondé du «test par intervalle proposé par la FIFA» comme moyen d'estimation de la capacité physique d'un arbitre. Méthode : Il s'agit d'une étude prospective basée sur une analyse descriptive. Les données ont été récoltées dans des stades de football suisses ≥1ère Ligue, du 01.12.2011 au 01.12.2012. Le groupe étudié était composé de 5 arbitres de football de sexe masculin, dont deux officiant en 1ère Ligue et faisant partie des talents de l'Association Cantonale Vaudoise de Football (ACVF) et trois en Super League et Challenge League. Les 5 arbitres ont été équipés d'un iPhone 3GS®, muni d'une application, capable d'enregistrer les déplacements sur le terrain (arrêt, marche et course). Le traitement des données a été effectué par un programme Matlab®, élaboré par le Laboratoire des Mesures d'Analyse du Mouvement (LMAM) de l'EPFL, tout comme l'application en question. Pour ce travail ont été considérées les phases et les fréquences d'arrêt, de marche et de course tout au long de l'évolution de la partie. Résultats : Durant les 90 minutes du match, la répartition se fait de la manière suivante : 13,74% du temps total où l'accéléromètre ne mesure aucune activité, 33,70% concernent une activité de course alors que le reste, 52,48% est de la marche. Avec l'avancement dans le match, il est constaté une augmentation des phases d'arrêt et une diminution du temps de course. Une intensité d'effort plus importante est observée lors des 15 premières minutes du match (environ 41,7% de course), alors qu'en fin de la partie, il y a une alternance de marche et de course avec des efforts de plus en plus brefs. La détermination de la médiane de durée des différents efforts a montré qu'un épisode de marche ou de course étaient de 5-6 secondes. De plus, les épisodes de marche ou de course étaient rarement >20 secondes. Discussion : Les résultats montrent que l'accéléromètre est un système de mesure facile d'utilisation, permettant un gain de temps dans l'analyse des données pour évaluer la performance sportive. Les principaux résultats de cette étude, ont mis en évidence une diminution de l'intensité des activités physiques de l'arbitre avec l'avancement du match, résultant soit de sa propre fatigue, soit de celle des joueurs dictant le rythme du jeu. Cette diminution se traduit par des déplacements de plus en plus brefs au fil du temps. La mesure de médiane du temps de course et de marche (5-6 sec) correspond à une activité aérobie pour la marche et anaérobie alactique pour la course. Par conséquent, le « test par intervalle » de la FIFA actuel ne nous semble pas adéquat en raison de sa filière énergétique de type anaérobique lactique. Conclusion : Cette étude pilote apporte un nouveau type d'instrumentation efficace et simple, jamais employé auparavant dans l'analyse des activités de match des arbitres de football. Il permet d'explorer des mouvements avec précision au fil du match et apporte un nouvel aspect sur la quantification de performance des arbitres non exploré jusqu'ici. Après analyse de l'ensemble des paramètres, il semble que le test FIFA ne soit pas adapté à la performance exigée par l'arbitrage.
Resumo:
Cette thèse est consacrée à l'analyse des parcours de vie d'un groupe d'anciens et anciennes élèves d'un établissement scolaire d'élite français (les Ecoles normales supérieures de Fontenay-aux-roses, Saint-Cloud et Lyon - promotions 1981-1987). A partir d'une approche longitudinale, son but est de montrer comment l'articulation entre la socialisation familiale, scolaire, professionnelle et conjugale participe à l'orientation progressive des parcours de vie des normalien-ne-s. Elle vise ainsi à remettre en question l'idée, largement répandue, selon laquelle l'intégration d'un cursus scolaire aussi sélectif et prestigieux que celui des ENS garantirait à Lou.te.s les élèves les mêmes chances d'accès aux positions dominantes de l'espace social. Alliant l'analyse de trois types de données (archives, questionnaires, entretiens), cette thèse met en évidence la manière dont inégalités relatives à l'origine sociale et au sexe se recomposent, une fois les portes de l'institution franchies. Elle montre que, dans un contexte socio-historique marqué par une forte expansion scolaire, il est plus que jamais nécessaire d'opérer une articulation systématique entre l'analyse des conditions sociales de réussite scolaire et l'analyse des conditions sociales d'exploitation des titres scolaires, afin de rendre compte des processus complexes de reproduction des inégalités et d'esquisser certaines de leur conditions de dépassement. Abstract: This thesis is dedicated to the life course analysis of alumni from one of the most prestigious French Grandes écoles (the Ecoles Normales Supérieures of Fontenay-aux- roses, Saint-Cloud and Lyon - classes of 1981.-1987). Through a longitudinal perspective, it aims to analyze how family, educational, professional and conjugal socialization processes combine to shape the life course of this particular group of graduates. The main goal of this research is to question the widespread belief that the French Grandes Ecoles guarantee automatic access to the very top of the professional and social hierarchy for all of their graduates. Based on a mixed methods research design (archive data, a questionnaire survey and semi-structured interviews), this thesis shows that, according to social origin and gender, ENS graduates actually adopt a diverse range of professional careers. It show how, in a socio-historical context characterized by a general increase in educational levels, any analysis of social inequalities should combine two levels of analysis: the social conditions of access to educational credentials, on the one hand, and the labor market value of formal qualifications, on the other hand. Our results suggest that the combined analysis of these two processes provide useful insight into the increasingly complex processes of social reproduction - and suggest fruitful perspectives for reducing some sources of inequality.
Resumo:
Constatant que la jurisprudence américaine impose de questionner non plus seulement la méthodologie mais les principes mêmes qui gouvernent un corps de connaissance qualifié de scientifique, la criminalistique peut-elle prétendre à ce statut supérieur devant les tribunaux, ou doit-elle être considérée comme métaphysique sur la base de ses posits fondamentaux de Locard (principe d'échange de traces) et de Kirk (principe d'individualité) ? Une analyse historique et philosophique apprécie la pertinence des épistémologies logiques à reconnaître une science, et propose une démarche néo-expérimentaliste innovante pour le principe de Locard. L'analyse des résultats de quatre brigades de recherches départementales françaises (BRD), du Groupe des techniciens en investigations criminelles (GTIC) et du service d'identité judiciaire vaudois (SIJ VD) permettent de constater la potentialité du principe d'échange de traces, et d'en proposer des voies de maximalisation, préalable à un questionnement pertinent sur la nature scientifique de ce principe par la réfutation poppérienne.
Resumo:
Détecter et comprendre les formes de criminalité, notamment organisées, qui sont impliquées dans la fabrication, la diffusion et/ou l'utilisation de faux documents d'identité est un enjeu complexe et persistant, mais est une nécessité pour soutenir l'action de la sécurité et l'étude des phénomènes criminels. A cet égard, il est postulé qu'une approche traçologique s'appuyant sur un profilage systématique des caractéristiques matérielles des faux documents d'identité peut fournir des renseignements criminels originaux, utiles et pertinents. Une méthode générale a été développée pour extraire, mémoriser et comparer systématiquement les profils des faux documents d'identité saisis par les acteurs de la sécurité. Cette méthode permet de détecter et de suivre les relations entre cas, les tendances et patterns criminels, dont l'interprétation au travers de différentes formes d'analyse permet la mise en évidence de potentiels groupes criminels, d'auteurs prolifiques et de <i>modus operandi</i> récurrents. Par l'étude de centaines de faux documents d'identité saisis par la police et les garde-frontière dans deux pays distincts, cet article démontre comment le renseignement forensique peut soutenir la génération et l'étude d'hypothèses sur la criminalité, aidant par-là la compréhension des marchés et réseaux criminels sur les plans stratégique, opérationnel et tactique. L'article illustre également comment le renseignement forensique peut soutenir des mesures préventives et peut contribuer à l'analyse des risques que posent les faux documents d'identité, voire à la remise en cause de la stratégie sécuritaire et de contrôle actuelle. L'approche proposée présente un carctère essentiellement générique puisque, à l'instar de l'exemple des faux documents d'identité, n'importe quel type de trace matérielle peut être traité systématiquement et scientifiquement de sorte à contribuer à la construction structurée de connaissances sur la criminalité et la sécurité.
Resumo:
Chez les patients cancéreux, les cellules malignes sont souvent reconnues et détruites par les cellules T cytotoxiques du patient. C'est pourquoi, depuis plusieurs années, des recherches visent à produire des vaccins sensibilisant les cellules de l'immunité adaptative, afin de prévenir certains cancers. Bien que les vaccins ciblant les cellules T CD8+ (cytotoxiques) ont une efficacité in-vitro élevée, un vaccin pouvant cibler les cellules T CD8+ et CD4+ aurait une plus grande efficacité (1-3). En effet, les cellules T helper (CD4+) favorisent la production et la maintenance des cellules T CD8+ mémoires à longue durée de vie. Il existe un grand nombre de sous-types de cellules T CD4+ et leur action envers les cellules cancéreuses est différente. Par exemple, les lymphocytes Treg ont une activité pro-tumorale importante (4) et les lymphocytes Th1 ont une activité anti-tumorale (5). Cependant, le taux naturel des différents sous-types de cellules T CD4+ spécifiques aux antigènes tumoraux est variable. De plus, une certaine flexibilité des différents sous-types de cellules T CD4+ a été récemment démontrée (6). Celle-ci pourrait être ciblée par des protocoles de vaccination avec des antigènes tumoraux administrés conjointement à des adjuvants définis. Pour cela, il faut approfondir les connaissances sur le rôle des cellules T CD4+ spécifiques aux antigènes dans l'immunité anti-tumorale et connaître précisément la proportion des sous-types de cellules T CD4+ activées avant et après la vaccination. L'analyse des cellules T, par la cytométrie de flux, est très souvent limité par le besoin d'un nombre très élevé de cellules pour l'analyse de l'expression protéique. Or dans l'analyse des cellules T CD4+ spécifiques aux antigènes tumoraux cette technique n'est souvent pas applicable, car ces cellules sont présentes en très faible quantité dans le sang et dans les tissus tumoraux. C'est pourquoi, une approche basée sur l'analyse de la cellule T individuelle a été mise en place afin d'étudier l'expression du profil génétique des cellules T CD8+ et CD4+. (7,8) Méthode : Ce nouveau protocole (« single cell ») a été élaboré à partir d'une modification du protocole PCR-RT, qui permet la détection spécifique de l'ADN complémentaire (ADNc) après la transcription globale de l'ARN messager (ARNm) exprimé par une cellule T individuelle. Dans ce travail, nous optimisons cette nouvelle technique d'analyse pour les cellules T CD4+, en sélectionnant les meilleures amorces. Tout d'abord, des clones à profils fonctionnels connus sont générés par cytométrie de flux à partir de cellules T CD4+ d'un donneur sain. Pour cette étape d'optimisation des amorces, la spécificité des cellules T CD4+ n'est pas prise en considération. Il est, donc, possible d'étudier et de trier ces clones par cytométrie de flux. Ensuite, grâce au protocole « single cell », nous testons par PCR les amorces des différents facteurs spécifiques de chaque sous-type des T CD4+ sur des aliquotes issus d'une cellule provenant des clones générés. Nous sélectionnons les amorces dont la sensibilité, la spécificité ainsi que les valeurs prédictives positives et négatives des tests sont les meilleures. (9) Conclusion : Durant ce travail nous avons généré de l'ADNc de cellules T individuelles et sélectionné douze paires d'amorces pour l'identification des sous-types de cellules T CD4+ par la technique d'analyse PCR « single cell ». Les facteurs spécifiques aux cellules Th2 : IL-4, IL-5, IL-13, CRTh2, GATA3 ; les facteurs spécifiques aux cellules Th1 : TNFα, IL-2 ; les facteurs spécifiques aux cellules Treg : FOXP3, IL-2RA ; les facteurs spécifiques aux cellules Th17 : RORC, CCR6 et un facteur spécifique aux cellules naïves : CCR7. Ces amorces peuvent être utilisées dans le futur en combinaison avec des cellules antigènes-spécifiques triées par marquage des multimères pMHCII. Cette méthode permettra de comprendre le rôle ainsi que l'amplitude et la diversité fonctionnelle de la réponse de la cellule T CD4+ antigène-spécifique dans les cancers et dans d'autres maladies. Cela afin d'affiner les recherches en immunothérapie oncologique. (8)