928 resultados para Méthodologie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉLa thèse présentée ici ambitionne de fournir un panorama de la croyance magicoverbale, autrement dit la croyance que les signes verbaux pourraient posséder un pouvoir surnaturel intrinsèque : souhaits, choses ou événements imaginés, pourraient s'actualiser du simple fait de leur énonciation, qu'elle soit oralisée ou non ; les prénoms pourraient avoir une influence sur la personnalité, voire sur le cours de la destinée de qui les porte.Cette thèse a non seulement une visée descriptive, mais également élucidante. Il s'agira, en effet, d'étudier les représentations d'un pouvoir magique des mots dans le but, non seulement d'en documenter les manifestations, mais également de comprendre en quoi elles pourraient dicter certains comportements ou réactions et avec quelles implications.Qui sont ces personnes paraissant manifester une croyance magicoverbale ? Sont-elles aussi frustes qu'on a tendance à le croire ou s'agit-il simplement d'un préjugé particulièrement tenace ? La représentation magique du langage est-elle homogène ou présente-t-elle des variations ? De quels facteurs dépend-elle ? Quels en sont les mécanismes et les modalités d'apparition ? Autant de questions auxquelles cette thèse se propose de répondre. À cet effet, la présentation du travail est divisée en trois parties : la première porte sur le terrain d'enquête, avec une description de la méthodologie utilisée (chapitre 1) et la présentation des résultats obtenus (chapitre 2). L'analyse et l'interprétation des résultats (chapitre 3) font l'objet de la deuxième partie de la thèse. Quant à la troisième partie, elle rend compte des mécanismes de la croyance magicoverbale (chapitre 4).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : L'équipe mobile de soins palliatifs intra hospitalière (EMSP) du Centre Hospitalier Universitaire Vaudois (CHUV) a été mise en place en 1996. Il s'agit d'une des premières équipes interdisciplinaire de consultants mise à disposition d'un hôpital tertiaire. Le CHUV est l'hôpital de proximité de la ville de Lausanne (850 lits) mais aussi un hôpital de référence pour le reste du canton. En 2007, il y a eu 38'359 patients hospitalisés au CHUV. Les facteurs d'évaluation du taux d'utilisation d'une équipe mobile de soins palliatifs consultantes sont variés et complexes. Plusieurs méthodes sont décrites dans la littérature pour tenter de répondre à cette problématique. Avant de pouvoir évaluer l'utilisation de notre équipe mobile consultante de soins palliatifs intra hospitalière, il nous est apparu nécessaire de mieux décrire et définir la population qui meurt dans notre institution. McNamara et collègues ont proposé des critères qui classifient une population palliative comme « minimale », « intermédiaire » ou « maximale ». L'objectif de cette étude est de déterminer le taux de patients décédés au CHUV sur une période de 4 mois (Γ1 février au 31 mai 2007) suivie par notre EMSP en utilisant la méthode de classification «minimal » et « maximal ». Méthode : les archives médicales du CHUV ont été analysées pour chaque patient adulte décédé pendant la période sélectionnée. Les populations « maximal » et « minimal » de ces patients ont été ensuite déterminées selon des critères basés sur les codes diagnostiques figurants sur les certificats de décès. De ces deux populations, nous avons identifié à partir de notre base de données, les patients qui ont été suivie par notre EMSP. Le CHUV utilise les mêmes codes diagnostiques (International Classification of Disease, ICD) que ceux utilisés dans la classification de McNamara. Une recherche pilote effectuée dans les archives médicales du CHUV manuellement en analysant en profondeur l'ensemble du dossier médical a révélé que la classification de la population « minimal » pouvait être biaisée notamment en raison d'une confusion entre la cause directe du décès (complication d'une maladie) et la maladie de base. Nous avons estimé le pourcentage d'erreur de codification en analysé un échantillon randomisé de patients qui remplissait les critères « minimal ». Résultats : sur un total de 294 décès, 263 (89%) remplissaient initialement les critères « maximal » et 83 (28%) les critères «minimal», l'analyse de l'échantillon randomisé de 56 dossiers de patients sur les 180 qui ne remplissaient pas les critères « minimal » ont révélé que 21 (38%) auraient dus être inclus dans la population « minimal ». L'EMSP a vu 67/263 (25.5%) de la population palliative « maximal » et 56/151 (37.1%) de la population palliative « minimal ». Conclusion : cette étude souligne l'utilité de la méthode proposée par McNamara pour déterminer la population de patients palliatifs. Cependant, notre travail illustre aussi une limite importante de l'estimation de la population « minima » en lien avec l'imprécision des causes de décès figurant sur les certificats de décès de notre institution. Nos résultats mettent aussi en lumière que l'EMSP de notre institution est clairement sous- utilisée. Nous prévoyons une étude prospective de plus large envergure utilisant la même méthodologie afin d'approfondir les résultats de cette étude pilote.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte et cadre: L'Institut universitaire de médecine sociale et préventive (IUMSP) de Lausanne a été mandaté par la Fondation Leenaards pour élaborer un cadre pour l'évaluation de l'impact d'un processus communautaire sur la santé des aînés dans la ville d'Yverdon, appelé "Quartiers solidaires". "Quartiers solidaires" est une méthodologie de développement communautaire, créée par l'unité de travail social communautaire de Pro Senectute Vaud. Elle a pour but d'améliorer la qualité de vie actuelle et future des personnes âgées au sein de leur quartier. Pour atteindre cet objectif, les habitants, et en particulier les aînés, sont invités à devenir auteurs et acteurs de leurs propres projets en créant une communauté locale. Le projet "Quartiers solidaires" à Yverdon s'inscrit par ailleurs dans le cadre d'un projet communal de politique d'action sociale de la ville, Qualité de vie, s'appliquant au niveau de la ville et impliquant divers acteurs et instances. L'IUMSP propose, pour l'élaboration de ce cadre, d'utiliser un outil : le "modèle de catégorisation des résultats". Cet outil, appelé aussi SMOC (Swiss Model for Outcome Classification), permet à tous les partenaires impliqués dans le projet Quartiers solidaires d'établir ensemble un état de situation à laquelle ils sont confrontés (c'est à dire une analyse des problèmes auxquels ils doivent faire face), ainsi qu'une théorie d'action (c'est à dire un schéma qui structure les activités, en cours et planifiées, selon les divers objectifs visés). Cet outil, caractérisé par sa démarche participative, a été utilisé dans le cadre d'ateliers réunissant les différentes parties prenantes du projet. [...] Le modèle est basé sur la santé dans sa définition la plus large (telle que définie par l'OMS), englobant donc la qualité de vie, et est en adéquation avec l'approche écologique, qui repose sur une vision élargie des déterminants de la santé. [Auteurs, p. 7-8]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : En Suisse, la situation des requérants d'asile est réglementée depuis 1999 par la Loi sur l'Asile (LAsi) qui leur donnait droit jusqu'en 2008 à une aide sociale, que leur demande soit acceptée, refusée ou que les autorités responsables n'entrent pas en matière. Depuis janvier 2008, tout requérant d'asile ne recevant pas de réponse positive perd cette aide sociale au profit d'une aide dite « d'urgence », impliquant un durcissement des conditions de vie. Depuis lors, un Groupe de Travail « Critères de vulnérabilité » (GT-Vulnérabilité) se charge, sur mandat de l'Etablissement Vaudois d'Accueil des Migrants (EVAM), d'évaluer la situation de certaines personnes percevant l'aide d'urgence sur la base de rapports médicaux et psychiatriques. Il détermine premièrement si la personne doit être considérée comme « vulnérable » pour raison de santé et pose ensuite un préavis médical quant à la possibilité d'amélioration des conditions d'hébergement. Les personnes reconnues comme particulièrement vulnérables sont soumises à un régime différent, impliquant des avantages spécifiés dans l'aide d'urgence. Objectifs : Décrire l'état de santé physique mais surtout mental des personnes percevant l'Aide d'urgence, pour lesquelles une demande a été effectuée auprès de ce groupe et identifier des facteurs associés à cet état de santé. Présenter comment le système de soins organise sa prise en charge et explorer les implications sur la pratique médicale. Méthodologie : Revue exhaustive de la littérature afin de mieux comprendre le contexte social, le cadre légal et les questions éthiques qu'ils impliquent. A partir des dossiers traités par le GT- Vulnérabilité, établissement d'une base de données regroupant des informations d'ordre démographique, médical et anamnestique et analyse descriptive univariée. Résultats: De janvier 2008 à avril 2011, le GT-Vulnérabilité a traité 411 demandes. Parmi les personnes concernées, 52% viennent d'Afrique et sont principalement sans famille. Le GT- Vulnérabilité a pu rendre une décision dans 79% des cas, donnant un préavis en faveur du requérant d'asile pour 82% d'entre eux. On retrouve plus fréquemment une réponse positive lorsqu'il s'agit d'une femme, ou d'une personne avec sa famille. L'étude des dossiers contenant un rapport de généraliste, a montré la présence d'au moins deux diagnostics somatiques chez 42% des personnes, concernant notamment les maladies infectieuses et parasitaires et des atteintes du système nerveux. On retrouve au moins un trouble psychiatrique dans 74% des cas. Il s'agit en particulier de troubles de l'humeur unipolaires et de syndromes de stress post-traumatiques. Les rapports psychiatriques ont également permis d'identifier l'existence de traumatismes chez 81% des personnes, associés surtout à la guerre, à des maltraitance et violences, dans le pays d'origine, mais aussi en Suisse. Conclusion : La situation médicale des requérants d'asile soumis au régime de l'aide d'urgence est préoccupante. Elle met le système de santé et ses divers protagonistes face à des questionnements et des enjeux d'ordre éthique et demande une nécessaire réflexion en termes de santé publique et de politique sanitaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : En réaction à l'émergence de société plurielle, la communauté médicale a mis en place des outils de prise en charge de l'altérité. Cependant, la culture, issue notamment des origines, des croyances et des expériences est unique à chaque patient et lui sert à appréhender la maladie. Ce pourquoi, les outils de prise en compte de la culture, et de valorisation du patient, peuvent être potentiellement étendus à tous. Objectifs : Déterminer la place de la culture en médecine de famille, les enjeux qui en dépendent et la pertinence de l'utilisation des compétences transculturelles avec tous les patients. Perfectionner ces compétences dans le but de créer un modèle bio-psycho-socio-culturel améliorant la communication et la compréhension entre patients et thérapeutes. Méthodologie : Réalisation d'une revue de la littérature en déterminant comment la culture est intégrée à la médecine sous forme de savoir théorique. Réalisation d'une recherche qualitative de type exploratoire sur la base d'entretiens enregistrés auprès de 7 médecins de famille romands, pour montrer comment la notion de culture est intégrée en pratique. Comparaison entre médecine transculturelle et approche pratique de terrain. Résultats : La culture influe sur toutes les étapes de la consultation. La pratique des médecins est influencée par leur conception de la culture. La construction commune d'une représentation de la maladie, basée sur les conceptions du patient, améliore la collaboration thérapeutique. Les compétences cliniques transculturelles actuelles semblent être applicables à tous, mais nécessitent un léger développement en intégrant l'expérience pratique quotidienne de la médecine de famille. Conclusion : L'utilisation des compétences cliniques transculturelles (savoir, savoir-faire, savoir-être) avec tous les patients est réalisable et peut être affinée d'une quatrième compétence le savoir- percevoir : capacité d'être alerte et réceptif à toute subtilité culturelle qui ressurgit de l'interaction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : La maladie de Fabry est une maladie métabolique à stockage lysosomal. C'est une maladie héreditaire à transmission récessive qui concerne l'enzyme alpha-Galactosidase A. Le gène de l'alpha-Galactosidase A (GLA) se trouve au niveau du bras long du chromosome X «carté en Xq21.33-Xq22 ». L'enzyme muté ne recouvre plus son rôle catabolisateur et il ne métabolise pas le substrat globotriaosylceramide (Gb3). Par conséquence le Gb3 s'accumule dans tous les tissus. Dans les parois des vaisseaux sanguins le Gb3 s'accumule dans l'endothelium, la tunique interne des vaisseaux sanguins. Ce déficit métabolique se traduit par l'épaississement de la paroi vasculaire, des processus d'infarctus et ischémies du tissu cardiaque, rénal et cérébral. L'implication cardiaque de la maladie de Fabry est décrite chez plus de 78% des patients affectés par la maladie et se manifeste par une hypertrophie cardiaque du ventricule gauche. Toutefois, il n'existe pas de relation étroite entre hypertrophie cardiaque et le Gb3. La sphingosine 1-phosphate à été identifiée dans notre laboratoire et proposée comme facteur de croissance à l'origine du remodelage cardiovasculaire. De plus, la Globotriaosylsphingosine (Lyso-Gb3) à été aussi proposée comme facteur vasoactif chez les patients Fabry. Objectif : L'identification d'un biomarqueur pour le diagnostic et le suivi thérapeutique de la maladie de Fabry représente une domaine d'investigation active en recherche scientifique. Le Gb3 plasmatique ou dans les urines, la biopsie rénale ou cardiaque qui est mis en évidence grâce à la microscopie électronique sous forme de corps concentrique lamellaires, constituent les biomarqueurs classiques de la maladie de Fabry. Dernièrement, le Lyso-Gb3 et le Sphingosine-1 phosphate (S1P) ont été proposés comme marqueurs du remodelage cardiovasculaire. Le but de ce travail est de rassembler et de discuter la littérature concernant ces nouveaux marqueurs et, d'étudier une possible interaction entre Lyso-Gb3 et le S1P. Méthodologie : Rassembler la littérature scientifique et analyser l'implication de ces marqueurs dans la maladie de Fabry et leur effets cardiovasculaires. De plus, un travail expérimental est effectué. Ce travail consiste en l'identification d'une relation possible entre le Lyso-Gb3 et le S1P. Résultats : Avec ce travail on a cherché à actualiser et mettre à jour les notions concernant les biomarqueurs qui prennent place dans cette pathologie et les connaissances qu'on possède à ce jour sur les manifestations cardiovasculaires et neurologiques.La recherche d'un biomarqueur prime par le fait qu'un nombre considerable de patients est sous-diagnostiqués pour la maladie de Fabry et que entre les taux de substrat enzymatique accumulé dans les tissus et l'hypertrophie cardiaque, on peut constater une discordance. Grâce à ce travail expérimental, on a exclue la possibilité d'un effet précurseur du lyso-Gb3 pour le S1P. Nous avons montré que le Lyso-Gb3 est reconnu par les récepteurs du S1P avec des effets commun pour les S1P1-3 et différents pour le S1P2. Les taux du Lyso-Gb3 et du S1P doivent être mesuré chez les patients Fabry et une stratégie thérapeutique doit prendre en compte le rapport S1P/Lyso-Gb3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Interaction analysis is not a prerogative of any discipline in social sciences. It has its own history within each disciplinary field and is related to specific research objects. From the standpoint of psychology, this article first draws upon a distinction between factorial and dialogical conceptions of interaction. It then briefly presents the basis of a dialogical approach in psychology and focuses upon four basic assumptions. Each of them is examined on a theoretical and on a methodological level with a leading question: to what extent is it possible to develop analytical tools that are fully coherent with dialogical assumptions? The conclusion stresses the difficulty of developing methodological tools that are fully consistent with dialogical assumptions and argues that there is an unavoidable tension between accounting for the complexity of an interaction and using methodological tools which necessarily "monologise" this complexity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : En réaction à l'émergence de société plurielle, la communauté médicale a mis en place des outils de prise en charge de l'altérité. Cependant, la culture, issue notamment des origines, des croyances et des expériences est unique à chaque patient et lui sert à appréhender la maladie. Ce pourquoi, les outils de prise en compte de la culture, et de valorisation du patient, peuvent être potentiellement étendus à tous. Objectifs : Déterminer la place de la culture en médecine de famille, les enjeux qui en dépendent et la pertinence de l'utilisation des compétences transculturelles avec tous les patients. Perfectionner ces compétences dans le but de créer un modèle bio-psycho-socio-culturel améliorant la communication et la compréhension entre patients et thérapeutes. Méthodologie : Réalisation d'une revue de la littérature en déterminant comment la culture est intégrée à la médecine sous forme de savoir théorique. Réalisation d'une recherche qualitative de type exploratoire sur la base d'entretiens enregistrés auprès de 7 médecins de famille romands, pour montrer comment la notion de culture est intégrée en pratique. Comparaison entre médecine transculturelle et approche pratique de terrain. Résultats : La culture influe sur toutes les étapes de la consultation. La pratique des médecins est influencée par leur conception de la culture. La construction commune d'une représentation de la maladie, basée sur les conceptions du patient, améliore la collaboration thérapeutique. Les compétences cliniques transculturelles actuelles semblent être applicables à tous, mais nécessitent un léger développement en intégrant l'expérience pratique quotidienne de la médecine de famille. Conclusion : L'utilisation des compétences cliniques transculturelles (savoir, savoir-faire, savoir-être) avec tous les patients est réalisable et peut être affinée d'une quatrième compétence le savoir- percevoir : capacité d'être alerte et réceptif à toute subtilité culturelle qui ressurgit de l'interaction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Games are powerful and engaging. On average, one billion people spend at least 1 hour a day playing computer and videogames. This is even more true with the younger generations. Our students have become the < digital natives >, the < gamers >, the < virtual generation >. Research shows that those who are most at risk for failure in the traditional classroom setting, also spend more time than their counterparts, using video games. They might strive, given a different learning environment. Educators have the responsibility to align their teaching style to these younger generation learning styles. However, many academics resist the use of computer-assisted learning that has been "created elsewhere". This can be extrapolated to game-based teaching: even if educational games were more widely authored, their adoption would still be limited to the educators who feel a match between the authored games and their own beliefs and practices. Consequently, game-based teaching would be much more widespread if teachers could develop their own games, or at least customize them. Yet, the development and customization of teaching games are complex and costly. This research uses a design science methodology, leveraging gamification techniques, active and cooperative learning theories, as well as immersive sandbox 3D virtual worlds, to develop a method which allows management instructors to transform any off-the-shelf case study into an engaging collaborative gamified experience. This method is applied to marketing case studies, and uses the sandbox virtual world of Second Life. -- Les jeux sont puissants et motivants, En moyenne, un milliard de personnes passent au moins 1 heure par jour jouer à des jeux vidéo sur ordinateur. Ceci se vérifie encore plus avec les jeunes générations, Nos étudiants sont nés à l'ère du numérique, certains les appellent des < gamers >, d'autres la < génération virtuelle >. Les études montrent que les élèves qui se trouvent en échec scolaire dans les salles de classes traditionnelles, passent aussi plus de temps que leurs homologues à jouer à des jeux vidéo. lls pourraient potentiellement briller, si on leur proposait un autre environnement d'apprentissage. Les enseignants ont la responsabilité d'adapter leur style d'enseignement aux styles d'apprentissage de ces jeunes générations. Toutefois, de nombreux professeurs résistent lorsqu'il s'agit d'utiliser des contenus d'apprentissage assisté par ordinateur, développés par d'autres. Ceci peut être extrapolé à l'enseignement par les jeux : même si un plus grand nombre de jeux éducatifs était créé, leur adoption se limiterait tout de même aux éducateurs qui perçoivent une bonne adéquation entre ces jeux et leurs propres convictions et pratiques. Par conséquent, I'enseignement par les jeux serait bien plus répandu si les enseignants pouvaient développer leurs propres jeux, ou au moins les customiser. Mais le développement de jeux pédagogiques est complexe et coûteux. Cette recherche utilise une méthodologie Design Science pour développer, en s'appuyant sur des techniques de ludification, sur les théories de pédagogie active et d'apprentissage coopératif, ainsi que sur les mondes virtuels immersifs < bac à sable > en 3D, une méthode qui permet aux enseignants et formateurs de management, de transformer n'importe quelle étude de cas, provenant par exemple d'une centrale de cas, en une expérience ludique, collaborative et motivante. Cette méthode est appliquée aux études de cas Marketing dans le monde virtuel de Second Life.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This research project conducted in the Psychology Department of the University of Lausanne (Switzerland) evaluated the therapeutic alliance with Hispanic American Patients. From the patient's perspective, the therapeutic alliance was explored in two types of frameworks: the dyadic and the triadic setting. The dyadic setting is the encounter between a therapist (health professional) and a patient who ideally share the same language. The triadic setting is the encounter of a therapist and a patient who speak different languages, but are able to interact using the help of an interpreter. My specific interest focuses on studying the therapeutic alliance in a cross- cultural setting through a mixed methodology. As part of the quantitative phase, non- parametric tests were used to analyze 55 questionnaires of the Therapeutic Alliance for Migrants - Health Professionals' version (QALM-PS). For the qualitative phase, a thematic analysis was used to analyze 20 transcript interviews. While no differences were found concerning the strength of the therapeutic alliance between the triadic and dyadic settings, results showed that the factors that enrich the therapeutic alliance with migrant patients depend more on an emotional alliance (bond) than on a rational alliance (agreements). Indeed, the positive relationship with the interpreter, and especially with the therapist, relies considerably on human qualities and moral values, bringing the conception of humanity as an important need when meeting foreign patients in health care settings. In addition, the quality of communication, which could be attributed to the type of interpreter in the triadic setting, plays an important role in the establishment of a positive therapeutic relationship. Ce projet de recherche mené au Département de psychologie de l'Université de Lausanne (Suisse) a évalué l'alliance thérapeutique avec les patients hispano-américains. Du point de vue du patient, l'alliance thérapeutique a été étudiée dans deux types de dispositifs: le cadre dyadique et triadique. Le cadre dyadique est la rencontre d'un thérapeute (professionnel de la santé) et d'un patient qui, idéalement, partagent la même langue. Le cadre triadique est la rencontre d'un thérapeute et d'un patient qui parlent différentes langues, mais sont capables d'interagir grâce à l'aide d'un interprète. Mon intérêt porte en particulier sur l'étude de l'alliance thérapeutique dans un cadre interculturel au travers d'une méthodologie mixte. Dans la phase quantitative, des tests non paramétriques ont été utilisés pour les analyses des 55 questionnaires de l'alliance thérapeutique pour les migrants, version - professionnels de la santé (QALM-PS). Pour la phase qualitative, une analyse thématique a été utilisée pour l'analyse des 20 entretiens transcrits. Bien qu'aucune différence n'a été constatée en ce qui concerne la force de l'alliance thérapeutique entre les cadres dyadiques et triadiques, les résultats montrent que les facteurs qui enrichissent l'alliance thérapeutique avec les patients migrants dépendent plus de l'alliance émotionnelle (lien) que sur une alliance rationnelle (accords). En effet, la relation positive avec l'interprète, et en particulier avec le thérapeute, repose en grande partie sur des qualités humaines et des valeurs morales, ce qui porte la conception de l'humanité comme un besoin important lors de la rencontre des patients étrangers dans un cadre de santé. En outre, la qualité de la communication, qui pourrait être attribuée au type d'interprète dans le cadre triadique, joue un rôle important dans l'établissement d'une relation thérapeutique positive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La cryptographie classique est basée sur des concepts mathématiques dont la sécurité dépend de la complexité du calcul de l'inverse des fonctions. Ce type de chiffrement est à la merci de la puissance de calcul des ordinateurs ainsi que la découverte d'algorithme permettant le calcul des inverses de certaines fonctions mathématiques en un temps «raisonnable ». L'utilisation d'un procédé dont la sécurité est scientifiquement prouvée s'avère donc indispensable surtout les échanges critiques (systèmes bancaires, gouvernements,...). La cryptographie quantique répond à ce besoin. En effet, sa sécurité est basée sur des lois de la physique quantique lui assurant un fonctionnement inconditionnellement sécurisé. Toutefois, l'application et l'intégration de la cryptographie quantique sont un souci pour les développeurs de ce type de solution. Cette thèse justifie la nécessité de l'utilisation de la cryptographie quantique. Elle montre que le coût engendré par le déploiement de cette solution est justifié. Elle propose un mécanisme simple et réalisable d'intégration de la cryptographie quantique dans des protocoles de communication largement utilisés comme les protocoles PPP, IPSec et le protocole 802.1li. Des scénarios d'application illustrent la faisabilité de ces solutions. Une méthodologie d'évaluation, selon les critères communs, des solutions basées sur la cryptographie quantique est également proposée dans ce document. Abstract Classical cryptography is based on mathematical functions. The robustness of a cryptosystem essentially depends on the difficulty of computing the inverse of its one-way function. There is no mathematical proof that establishes whether it is impossible to find the inverse of a given one-way function. Therefore, it is mandatory to use a cryptosystem whose security is scientifically proven (especially for banking, governments, etc.). On the other hand, the security of quantum cryptography can be formally demonstrated. In fact, its security is based on the laws of physics that assure the unconditional security. How is it possible to use and integrate quantum cryptography into existing solutions? This thesis proposes a method to integrate quantum cryptography into existing communication protocols like PPP, IPSec and the 802.l1i protocol. It sketches out some possible scenarios in order to prove the feasibility and to estimate the cost of such scenarios. Directives and checkpoints are given to help in certifying quantum cryptography solutions according to Common Criteria.

Relevância:

10.00% 10.00%

Publicador: