1000 resultados para Dimensions dans un problème éthique
Resumo:
- Comment prescrire à une femme enceinte? L'attitude optimale réalise un compromis entre d'une part l'indication au traitement, et d'autre part l'importance du risque que celui-ci fait courir au foetus et à la mère. Le respect de quelques principes simples peut aider dans cette démarche: - La relative carence en connaissances dans ce domaine impose avant tout une attitude basée sur le principe de précaution. - La période (1er, 2e ou 3e trimestre) pendant laquelle le foetus sera exposé au traitement envisagé est un élément prépondérant dans la réflexion. - Le traitement de choix est celui qui, parmi les alternatives efficaces, présente le meilleur profil de sécurité pendant la grossesse selon les observations humaines disponibles. - Le rapport bénéfice/risque pour la patiente et le foetus peut s'inverser pendant la grossesse. - Toute exposition médicamenteuse problématique pendant la grossesse doit faire l'objet d'une annonce à l'un des centres suisse de pharmacovigilance. Ces données de tératovigilance sont indispensables pour alimenter les connaissances dans ce domaine. - Afin d'illustrer ces principes généraux, un exemple typique de prescription chez la femme enceinte a été choisi, mettant l'accent sur un problème de tératovigilance récemment identifié: les risques liés à certains antidépresseurs durant la grossesse.
Resumo:
Résumé : J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort. Auguste Detoeuf Propos d'O.L. Brenton, confiseur, Editions du Tambourinaire, 1948. En choisissant volontairement une problématique comptable typiquement empirique, ce travail s'est attelé à tenter de démontrer la possibilité de produire des enseignements purement comptables (ie à l'intérieur du schème de représentation de la Comptabilité) en s'interdisant l'emprunt systématique de theories clé-en-main à l'Économie -sauf quant cela s'avère réellement nécessaire et légitime, comme dans l'utilisation du CAPM au chapitre précédent. Encore une fois, rappelons que cette thèse n'est pas un réquisitoire contre l'approche économique en tant que telle, mais un plaidoyer visant à mitiger une telle approche en Comptabilité. En relation avec le positionnement épistémologique effectué au premier chapitre, il a été cherché à mettre en valeur l'apport et la place de la Comptabilité dans l'Économie par le positionnement de la Comptabilité en tant que discipline pourvoyeuse de mesures de représentation de l'activité économique. Il nous paraît clair que si l'activité économique, en tant que sémiosphère comptable directe, dicte les observations comptables, la mesure de ces dernières doit, tant que faire se peut, tenter de s'affranchir de toute dépendance à la discipline économique et aux théories-méthodes qui lui sont liées, en adoptant un mode opératoire orthogonal, rationnel et systématique dans le cadre d'axiomes lui appartenant en propre. Cette prise de position entraîne la définition d'un nouveau cadre épistémologique par rapport à l'approche positive de la Comptabilité. Cette dernière peut se décrire comme l'expression philosophique de l'investissement de la recherche comptable par une réflexion méthodique propre à la recherche économique. Afin d'être au moins partiellement validé, ce nouveau cadre -que nous voyons dérivé du constructivisme -devrait faire montre de sa capacité à traiter de manière satisfaisante une problématique classique de comptabilité empirico-positive. Cette problématique spécifique a été choisie sous la forme de traitement-validation du principe de continuité de l'exploitation. Le principe de continuité de l'exploitation postule (énonciation d'une hypothèse) et établit (vérification de l'hypothèse) que l'entreprise produit ses états financiers dans la perspective d'une poursuite normale de ses activités. Il y a rupture du principe de continuité de l'exploitation (qui devra alors être écartée au profit du principe de liquidation ou de cession) dans le cas de cessation d'activité, totale ou partielle, volontaire ou involontaire, ou la constatation de faits de nature à compromettre la continuité de l'exploitation. Ces faits concernent la situation financière, économique et sociale de l'entreprise et représentent l'ensemble des événements objectifs 33, survenus ou pouvant survenir, susceptibles d'affecter la poursuite de l'activité dans un avenir prévisible. A l'instar de tous les principes comptables, le principe de continuité de l'exploitation procède d'une considération purement théorique. Sa vérification requiert toutefois une analyse concrète, portant réellement et de manière mesurable à conséquence, raison pour laquelle il représente un thème de recherche fort apprécié en comptabilité positive, tant il peut (faussement) se confondre avec les études relatives à la banqueroute et la faillite des entreprises. Dans la pratique, certaines de ces études, basées sur des analyses multivariées discriminantes (VIDA), sont devenues pour l'auditeur de véritables outils de travail de par leur simplicité d'utilisation et d'interprétation. À travers la problématique de ce travail de thèse, il a été tenté de s'acquitter de nombreux objectifs pouvant être regroupés en deux ensembles : celui des objectifs liés à la démarche méthodologique et celui relevant de la mesure-calibration. Ces deux groupes-objectifs ont permis dans une dernière étape la construction d'un modèle se voulant une conséquence logique des choix et hypothèses retenus.
Resumo:
Devant la multiplication de données, de classements, l'auteur interroge la configuration d'acteurs à l'origine de la problématisation d'indicateurs statistiques en grilles de lecture des inégalités d'accès à l'enseignement supérieur. La comparaison et la caractérisation des indicateurs d'inégalités d'accès des bases internationales (UNESCO, OCDE, EUROSTAT) et nationales (Allemagne, Angleterre, France et Suisse) questionnent la tension entre les discours et les indicateurs produits et leur inscription nationale. Qui dit quoi et avec quels résultats ? Quelles configurations d'acteurs caractérisent ces processus ? De quelles relations de pouvoir sont-ils le produit ? L'auteur retrace la mise à l'agenda des organismes européens du problème des inégalités d'accès au supérieur, identifie les politiques définies et les confronte aux indicateurs produits montrant la dissonance entre les discours et ce que les indicateurs permettent de problématiser, le décalage entre recommandations et outils. Pourquoi un tel contraste ? Quels sont les mécanismes à l'oeuvre ? Est-ce un problème technique, politique ? Que révèle cette dissonance des spécificités nationales dans la construction sociale des inégalités ?
Resumo:
La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
La promotion de la santé au travail, le transfert de connaissances et l'échange d'expériences font partie, entre autres, des missions de l'Institut universitaire romand de Santé au Travail (IST). La collaboration entre un pays industrialisé et un pays en voie de développement peut fortement contribuer à la prise de conscience d'un concept important comme celui de la santé au travail. Au Bénin, une formation spécialisée en santé au travail a été mise en place depuis une dizaine d'années. Pour soutenir ses activités de coopération, l'IST a développé, avec le soutien de l'Organisation mondiale de la Santé (OMS) et avec le concours du Service de toxicologie industrielle et des pollutions intérieures de l'Etat de Genève (STIPI), le livre « Introduction à l'hygiène du travail ». Ce document représente un support de cours utile pour former des spécialistes et des intervenants en santé et sécurité au travail qui ne sont pas hygiénistes du travail. Il a été imprimé en 2007 à grande échelle dans la série « Protecting workers' health » de l'OMS et est accessible électroniquement sur le site de l'OMS. Le but de ce travail de diplôme est de mettre en pratique et d'évaluer ce support de cours dans le cadre d'une formation spécialisée en Santé au Travail à la Faculté des Sciences de la Santé de l'Université d'Abomey Calavi à Cotonou, Bénin. Le module d'hygiène du travail a été donné sur une semaine de cours. La semaine était composée de cours théoriques, de visites d'entreprises ainsi que d'un examen d'évaluation en fin de semaine. Globalement, malgré la densité du cours, les messages importants du module ont été acquis. Le support du cours est un outil permettant de transmettre les bases d'une discipline importante dans le domaine de la santé au travail, notamment dans un pays où la législation est encore balbutiante.
Resumo:
Le cancer colorectal atteint, chaque année, plus d'un million de personnes dans le monde et plus de 500'000 en meurent [1]. Il affecte de manière très inégalitaire les différentes parties du monde. En effet, s'il constitue un problème de santé publique majeur dans des régions telles que l'Amérique du Nord, l'Europe ou l'Océanie (incidence supérieure à 50 pour 100'000), il est nettement plus rare dans certains pays d'Asie, d'Afrique ou d'Amérique du Sud (incidence inférieure à 10 pour 100'000) [2]. Aux Etats-Unis, on estime que 5 à 6% de la population générale présentera un cancer colorectal au cours de sa vie [3]. En Suisse, le cancer colorectal est le deuxième cancer le plus mortel, avec quelque 1'600 décès par an, après le cancer du poumon [4]. Avec 4'000 nouveaux cas annuels, il représente 11% de tous les cancers chez l'homme et chez la femme [5]. Le cancer colorectal est le troisième cancer le plus fréquent après celui du poumon et de la prostate chez l'homme, alors qu'il n'est précédé chez la femme que par le cancer du sein. Pour la période 2003-07, l'incidence en Suisse est estimée à 50 cas/100'000 hommes et 32 cas/100'000 femmes (taux standardisés selon la population européenne) [5] et son taux de survie relative à 5 ans est de 60%, ce qui en fait le taux le plus élevé d'Europe [6]. Le fait que l'incidence chez les migrants ait tendance à rattraper celle des indigènes en moins d'une génération suggère que les facteurs environnementaux jouent un rôle prédominant dans la carcinogénèse des tumeurs colorectales [7]. Cependant, d'autres facteurs, notamment génétiques, interviennent dans la survenue des cancers colorectaux. En effet, dans des conditions de vie similaires, on observe une incidence de cancers colorectaux différente entre différentes ethnies. Des études américaines ont par exemple montré une incidence plus élevée chez les noirs (48 pour 100'000) que chez les blancs (40/100'000) ou les hispaniques (26/100'000) [8]. Les hommes sont plus fréquemment touchés par le cancer colorectal que les femmes, avec un sexe ratio de 1,5 [9]. Les premiers cas de cancers colorectaux apparaissent à partir de 25 ans et l'incidence augmente de manière quasi exponentielle jusqu'à un âge de 75-80 ans, puis se stabilise [10]. L'âge moyen au diagnostic se situe entre 65 et 70 ans. Environ 66% des cancers colorectaux sont localisés dans le côlon (dans l'ordre décroissant: au niveau du sigmoïde, du côlon ascendant, descendant et transverse), 27% dans le rectum, 4% dans l'anus tandis qu'environ 4% restent multiples et indéfinis [10]. Notons encore, qu'à des fins de comparaisons épidémiologiques, les cancers du côlon, du rectum et de l'anus sont souvent regroupés dans l'unique groupe des tumeurs colorectales.
Resumo:
La question de savoir si la relation est différente réellement de son fondement se rencontre fréquemment dans les textes médiévaux à partir du milieu du treizième siècle. Elle se pose avant tout dans un cadre aristotélicien de discussion des catégories et revient à se demander si la catégorie de relation ajoute véritablement une chose supplémentaire, la relation, dans la réalité. Cette question s'inscrit dans une représentation réaliste des relations : pour la plupart des auteurs du treizième et du quatorzième siècle, le fait que des choses soient réellement reliées entre elles ne fait pas de doute. Deux hommes de même taille sont bel et bien égaux, c'est-à-dire réellement reliés entre eux par une relation d'égalité. La difficulté est alors de comprendre comment ces choses sont reliées entre elles, ou encore, ce qu'est exactement cette relation dont il est alors question. Faut-il dire que l'égalité dans chacun des hommes de même taille est une nouvelle chose qui s'ajoute à la substance de chacun d'eux et aux accidents de taille, appartenant à la catégorie de quantité, sur lesquels ces relations d'égalité sont fondées ? Ou faut-il dire que l'égalité est réelle d'une autre manière, c'est-à-dire sans pour autant ajouter une nouvelle chose à ce à quoi elle advient ? Ce problème, qui se rencontre déjà dans les tensions existant entre les différents exposés qu'Aristote a consacrés à cette catégorie, a reçu de multiples réponses. Celles-ci nous éclairent sur la manière dont le réel est appréhendé au Moyen-Âge et sur les débats ontologiques de l'époque. Le travail ici résumé entreprend de délimiter précisément ces réponses et propose une manière de les classer. -- Realism about relations: study of the answers given to the problem of the difference between a relation and its foundation (1250-1350) Summary Whether relation is really distinct from its foundation or not is a question that can easily be found in medieval texts from the mid-thirteenth century onwards. It comes from an aristotelian background, the discussion about the categories, and asks if the category of relation really posits another thing, i.e. a relation, in reality. It results from a realist perspective on relations. In fact, most thirteenth and fourteenth century thinkers held without doubt that things outside the mind are really connected between them. Two men sharing the same height are really equal, that is, really linked to each other by a relation of equality. What is then left to understand is how these things are linked between them, or the exact nature of the aforementioned relation. Should we say that the equality in each of the equally sized men is a new thing that adds to the substance of each of them and to the accidents of height, belonging tho the category of quantity, on which these relations are founded? Or should we say that equality is real in another way, that is, without adding a new thing to the subject acquiring it? We can already find this issue in Aristotle himself, emerging from disagreeing texts devoted to this category. It received various answers that enable us to understand better how reality was defined in the Middle Age and some of the ontological debates of the time. The work that is here summed up attempts to precisely delineate these various answers and to provide a way of classifying them.
Resumo:
Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé
Resumo:
Malgré une société de plus en plus tolérante, la discrimination reste un problème d'actualité. Pour expliquer la formation des comportements discriminatoires, la recherche en psychologie sociale a traditionnellement étudié la discrimination comme un phénomène intergroupe, notamment à travers la théorie de l'identité sociale (Tajfel & Turner, 1979). Toutefois, cette approche ne permet pas de comprendre comment des individus peuvent de nos jours s'engager dans des comportements discriminatoires tout en sachant que ces actes sont répréhensibles socialement et pénalement. C'est à cette problématique que nous nous sommes attelés dans la présente recherche. De nombreuses études ont mis en évidence le fait que des individus étaient prêts à commettre des actes discriminatoires pour autant qu'ils puissent les justifier (Crandall & Eshleman, 2003). Nous proposons de contribuer à la compréhension de ce phénomène grâce au concept de désengagement moral définit comme le processus par lequel des individus justifient leurs comportements immoraux pour les rendre acceptable. Ce concept a initialement été développé de manière conceptuelle par Bandura (1990) pour comprendre les processus cognitifs amenant des individus à se comporter de manière immorale. Dans le cadre de notre recherche, nous proposons de développer le concept de désengagement moral pour des actes discriminatoires (DMD) ainsi que sa mesure. Plus particulièrement, nous proposons de conceptualiser le DMD comme une différence individuelle permettant aux individus de s'engager dans des comportements discriminatoires en toute impunité à travers un processus anticipatoire de justification. Ces justifications visent à prouver le bien-fondé des actes de discrimination envisagés, ainsi perçus comme bénins, acceptables, voire désirables. Deux des trois étapes envisagées pour le développement de la mesure ont déjà été réalisées. Les résultats obtenus sont prometteurs quant à la structure et la validité de la mesure.
Resumo:
Cet article vise à explorer la polyphonie des énoncés littéraires et ses effets sur la lecture. Je tenterai de montrer que cette question ne recouvre pas seulement un problème d'attribution, potentiellement insoluble, mais qu'il engage la question fondamentale de la valeur des énoncés fictionnels, que ces valeurs soient esthétiques ou éthiques, ou qu'il s'agisse de la prétention de la fiction à représenter une « vérité », ou du moins un aspect objectif de la réalité. Pour illustrer mon propos, je me servirai d'un court extrait tiré du roman de Michel Houellebecq, La Carte et le territoire. On verra que cette approche implique non seulement le retour de la figure de l'auteur (notamment à travers la prise en compte de sa posture), mais aussi la confrontation entre des lectures programmées par les textes et des lectures concrètes qui, parfois, et même très souvent, divergent des lectures programmées en amont.
Resumo:
Une première étude menée par les auteures de cet article dans le cadre de l'Unité de médecine des violences du Centre hospitalier universitaire vaudois et de l'Institut universitaire romand de santé au travail avait montré que les conséquences à long terme d'une agression physique au travail pouvaient être sérieuses et le soutien de l'employeur était primordial pour surmonter les conséquences d'un tel événement. Une étude complémentaire, dont les résultats sont présentés ici, avait pour but de formuler des propositions concrètes de mesures de prévention de la violence physique au travail dans le contexte suisse. Les résultats sont présentés dans un «fil rouge» qui se présente sous forme de check-lists de recommandations concrètes. Ce travail s'appuie sur l'analyse et la synthèse d'une abondante documentation, ainsi que sur des entretiens auprès de personnes-ressource et des témoignages de victimes d'agressions physiques au travail. En conclusion, il apparaît que les mesures existantes en Suisse sont encore trop souvent partielles et fragmentées, et se limitent souvent à des offres de formation ou d'information ponctuelles. Alors même que les organisations sont de plus en plus confrontées aux agressions envers le personnel, il y a lieu de les sensibiliser à la nécessité d'instaurer de véritables dispositifs de prévention inscrits dans la durée et s'appuyant sur des modèles éprouvés, opérant aux trois niveaux de prévention primaire, secondaire et tertiaire.
Resumo:
Le cancer du poumon fait partie des cancers les plus fréquents. Diagnostiqué à un stade souvent tardif, il se caractérise par un mauvais pronostic et de lourdes répercussions sur la santé du patient. La phase de traitement initial représente un moment critique où les proches du patient deviennent aidants naturels du patient et endossent de nouvelles responsabilités. Cette situation génère des conséquences en termes de stress chez l'aidant naturel. Le but de cette étude était de décrire l'importance du stress chez l'aidant naturel du patient en traitement initial pour un cancer du poumon. L'approche méthodologique utilisée est de type descriptif transversal. L'échantillon de convenance était composé de 28 aidants naturels et 26 patients en traitement initial pour un cancer du poumon suivis dans un centre d'oncologie ambulatoire universitaire en Suisse. L'importance du stress des aidants naturels a été évaluée à partir de l'instrument Caregiver Reaction Assessment (CRA) de Given et al. (1992) complété d'une question mesurant la perception du manque d'information. Le CRA mesure le ressenti de l'aidant naturel face aux dimensions négatives et positive du stress sur une échelle de type Likert à cinq points. Le modèle des systèmes de Neuman (2002) a servi de cadre théorique à l'étude. Les aidants naturels ont accordé une importance plus élevée (score moyen 4,15) à l'Estime de soi, dimension positive du stress qu'aux dimensions négatives. Parmi celles-ci, la Perturbation des activités représente la dimension qui affecte le plus le quotidien des aidants (score moyen 2,96). Les caractéristiques sociodémographiques de l'aidant et les données médicales du patient, semblent avoir une influence sur l'importance du stress perçu, mais d'autres marqueurs objectifs doivent être identifiés pour affiner l'interprétation de ces relations. Une grande majorité (78%) des aidants ont indiqué qu'ils disposaient d'assez d'information pour soigner, indiquant que l'information est un sujet important dans leur vécu et mérite une évaluation plus poussée en tant que dimension du stress associé au rôle d'aidant naturel. L'infirmière doit viser par ses actions à préserver l'intégrité et la stabilité de la santé de l'aidant naturel comme elle le fait pour les patients. L'investigation systématique du stress représente une intervention prioritaire chez les aidants naturels dans le contexte oncologique. Des interventions personnalisées pourront être ainsi développées, afin de soutenir l'aidant naturel dans ses activités d'aide auprès de son proche tout en préservant sa propre santé.
Resumo:
Les patients atteints d'un cancer du poumon souffrent de différents troubles physiques et psychosociaux sévères causés par la maladie et son traitement. Ces troubles engendrent plusieurs besoins en soins de support chez les patients. Afin de satisfaire leurs besoins et de leur offrir la meilleure qualité de soins possible, l'identification des besoins en soins de support des patients devient primordiale. But : Le but de l'étude est, dans un premier temps, d'identifier et de décrire les besoins insatisfaits en soins de support pour les patients souffrant d'un cancer du poumon pendant la phase de chimiothérapie dans un Centre Hospitalier Universitaire en Suisse (CHU). Dans un second temps, le but de l'étude est également d'explorer l'éventuelle existence de différences quant au degré d'insatisfaction, tel qu'exprimé par les patients, notamment en fonction de l'âge, du genre et du tabagisme des patients. Cadre théorique : La présente étude se base sur la théorie du déficit d'auto-soin de Dorothea Orem. Méthode : Le travail de recherche s'est basé sur un devis descriptif corrélationnel transversal. L'échantillon, composé de 26 patients atteints d'un cancer du poumon, a été recruté selon la méthode non probabiliste accidentelle dans le service d'oncologie ambulatoire du CHU. Le recueil des données a été effectué à travers deux questionnaires auto-administrés aux patients (Supportive Care Needs Survey Short Form 34 et un questionnaire socio-démographique). Les données médicales ont été recueillies par l'étudiant chercheur à travers la consultation des dossiers médicaux. Résultats : Les résultats montrent que les besoins les plus insatisfaits chez les patients se regroupent surtout autour des besoins liés aux aspects psychologiques et physiques/vie quotidienne. Les patients expriment aussi un degré d'insatisfaction par rapport aux besoins en information ainsi qu'aux soins et au soutien prodigués par les soignants. Les deux besoins le plus fréquemment (65,38 %) exprimés comme insatisfaits par les patients ont été : « être informé de ce que vous pouvez faire vous-même pour aller mieux » et « l'incertitude face à l'avenir ». Les différences des degrés d'insatisfaction, tel qu'exprimés par les patients, en fonction de l'âge, du genre du tabagisme ont permis de poser des hypothèses quant aux relations entre ces variables et le degré d'insatisfaction : les femmes seraient plus insatisfaites de toutes les dimensions liées aux besoins en soins de support ; les patients d'âge égal ou supérieur à 65 ans seraient plus insatisfaits quant aux besoins physiques/vie quotidienne, psychologiques et de soutien; les patients d'âge inférieur à 65 ans seraient plus insatisfaits quant aux besoins liés à la sexualité; les non-fumeurs avant le diagnostic seraient plus insatisfaits quant aux besoins physiques/vie quotidienne, d'information et sexuels ; les patients qui arrêtent de fumer après le diagnostic seraient plus insatisfaits quant aux besoins physique/vie quotidienne, psychologique et de soutien. Conclusion : Cette étude met en évidence le fait que, pendant la phase de chimiothérapie, les patients atteints d'un cancer du poumon expriment de l'insatisfaction par rapport à plusieurs besoins en soins de support. Afin d'améliorer la qualité des soins et de mieux répondre aux besoins des patients, les infirmières et les équipes interdisciplinaires présentes au sein des services d'oncologie du CHU sont appelés à prendre en considération l'insatisfaction exprimée par les patients.
Resumo:
Understanding and quantifying seismic energy dissipation, which manifests itself in terms of velocity dispersion and attenuation, in fluid-saturated porous rocks is of considerable interest, since it offers the perspective of extracting information with regard to the elastic and hydraulic rock properties. There is increasing evidence to suggest that wave-induced fluid flow, or simply WIFF, is the dominant underlying physical mechanism governing these phenomena throughout the seismic, sonic, and ultrasonic frequency ranges. This mechanism, which can prevail at the microscopic, mesoscopic, and macroscopic scale ranges, operates through viscous energy dissipation in response to fluid pressure gradients and inertial effects induced by the passing wavefield. In the first part of this thesis, we present an analysis of broad-band multi-frequency sonic log data from a borehole penetrating water-saturated unconsolidated glacio-fluvial sediments. An inherent complication arising in the interpretation of the observed P-wave attenuation and velocity dispersion is, however, that the relative importance of WIFF at the various scales is unknown and difficult to unravel. An important generic result of our work is that the levels of attenuation and velocity dispersion due to the presence of mesoscopic heterogeneities in water-saturated unconsolidated clastic sediments are expected to be largely negligible. Conversely, WIFF at the macroscopic scale allows for explaining most of the considered data while refinements provided by including WIFF at the microscopic scale in the analysis are locally meaningful. Using a Monte-Carlo-type inversion approach, we compare the capability of the different models describing WIFF at the macroscopic and microscopic scales with regard to their ability to constrain the dry frame elastic moduli and the permeability as well as their local probability distribution. In the second part of this thesis, we explore the issue of determining the size of a representative elementary volume (REV) arising in the numerical upscaling procedures of effective seismic velocity dispersion and attenuation of heterogeneous media. To this end, we focus on a set of idealized synthetic rock samples characterized by the presence of layers, fractures or patchy saturation in the mesocopic scale range. These scenarios are highly pertinent because they tend to be associated with very high levels of velocity dispersion and attenuation caused by WIFF in the mesoscopic scale range. The problem of determining the REV size for generic heterogeneous rocks is extremely complex and entirely unexplored in the given context. In this pilot study, we have therefore focused on periodic media, which assures the inherent self- similarity of the considered samples regardless of their size and thus simplifies the problem to a systematic analysis of the dependence of the REV size on the applied boundary conditions in the numerical simulations. Our results demonstrate that boundary condition effects are absent for layered media and negligible in the presence of patchy saturation, thus resulting in minimum REV sizes. Conversely, strong boundary condition effects arise in the presence of a periodic distribution of finite-length fractures, thus leading to large REV sizes. In the third part of the thesis, we propose a novel effective poroelastic model for periodic media characterized by mesoscopic layering, which accounts for WIFF at both the macroscopic and mesoscopic scales as well as for the anisotropy associated with the layering. Correspondingly, this model correctly predicts the existence of the fast and slow P-waves as well as quasi and pure S-waves for any direction of wave propagation as long as the corresponding wavelengths are much larger than the layer thicknesses. The primary motivation for this work is that, for formations of intermediate to high permeability, such as, for example, unconsolidated sediments, clean sandstones, or fractured rocks, these two WIFF mechanisms may prevail at similar frequencies. This scenario, which can be expected rather common, cannot be accounted for by existing models for layered porous media. Comparisons of analytical solutions of the P- and S-wave phase velocities and inverse quality factors for wave propagation perpendicular to the layering with those obtained from numerical simulations based on a ID finite-element solution of the poroelastic equations of motion show very good agreement as long as the assumption of long wavelengths remains valid. A limitation of the proposed model is its inability to account for inertial effects in mesoscopic WIFF when both WIFF mechanisms prevail at similar frequencies. Our results do, however, also indicate that the associated error is likely to be relatively small, as, even at frequencies at which both inertial and scattering effects are expected to be at play, the proposed model provides a solution that is remarkably close to its numerical benchmark. -- Comprendre et pouvoir quantifier la dissipation d'énergie sismique qui se traduit par la dispersion et l'atténuation des vitesses dans les roches poreuses et saturées en fluide est un intérêt primordial pour obtenir des informations à propos des propriétés élastique et hydraulique des roches en question. De plus en plus d'études montrent que le déplacement relatif du fluide par rapport au solide induit par le passage de l'onde (wave induced fluid flow en anglais, dont on gardera ici l'abréviation largement utilisée, WIFF), représente le principal mécanisme physique qui régit ces phénomènes, pour la gamme des fréquences sismiques, sonique et jusqu'à l'ultrasonique. Ce mécanisme, qui prédomine aux échelles microscopique, mésoscopique et macroscopique, est lié à la dissipation d'énergie visqueuse résultant des gradients de pression de fluide et des effets inertiels induits par le passage du champ d'onde. Dans la première partie de cette thèse, nous présentons une analyse de données de diagraphie acoustique à large bande et multifréquences, issues d'un forage réalisé dans des sédiments glaciaux-fluviaux, non-consolidés et saturés en eau. La difficulté inhérente à l'interprétation de l'atténuation et de la dispersion des vitesses des ondes P observées, est que l'importance des WIFF aux différentes échelles est inconnue et difficile à quantifier. Notre étude montre que l'on peut négliger le taux d'atténuation et de dispersion des vitesses dû à la présence d'hétérogénéités à l'échelle mésoscopique dans des sédiments clastiques, non- consolidés et saturés en eau. A l'inverse, les WIFF à l'échelle macroscopique expliquent la plupart des données, tandis que les précisions apportées par les WIFF à l'échelle microscopique sont localement significatives. En utilisant une méthode d'inversion du type Monte-Carlo, nous avons comparé, pour les deux modèles WIFF aux échelles macroscopique et microscopique, leur capacité à contraindre les modules élastiques de la matrice sèche et la perméabilité ainsi que leur distribution de probabilité locale. Dans une seconde partie de cette thèse, nous cherchons une solution pour déterminer la dimension d'un volume élémentaire représentatif (noté VER). Cette problématique se pose dans les procédures numériques de changement d'échelle pour déterminer l'atténuation effective et la dispersion effective de la vitesse sismique dans un milieu hétérogène. Pour ce faire, nous nous concentrons sur un ensemble d'échantillons de roches synthétiques idéalisés incluant des strates, des fissures, ou une saturation partielle à l'échelle mésoscopique. Ces scénarios sont hautement pertinents, car ils sont associés à un taux très élevé d'atténuation et de dispersion des vitesses causé par les WIFF à l'échelle mésoscopique. L'enjeu de déterminer la dimension d'un VER pour une roche hétérogène est très complexe et encore inexploré dans le contexte actuel. Dans cette étude-pilote, nous nous focalisons sur des milieux périodiques, qui assurent l'autosimilarité des échantillons considérés indépendamment de leur taille. Ainsi, nous simplifions le problème à une analyse systématique de la dépendance de la dimension des VER aux conditions aux limites appliquées. Nos résultats indiquent que les effets des conditions aux limites sont absents pour un milieu stratifié, et négligeables pour un milieu à saturation partielle : cela résultant à des dimensions petites des VER. Au contraire, de forts effets des conditions aux limites apparaissent dans les milieux présentant une distribution périodique de fissures de taille finie : cela conduisant à de grandes dimensions des VER. Dans la troisième partie de cette thèse, nous proposons un nouveau modèle poro- élastique effectif, pour les milieux périodiques caractérisés par une stratification mésoscopique, qui prendra en compte les WIFF à la fois aux échelles mésoscopique et macroscopique, ainsi que l'anisotropie associée à ces strates. Ce modèle prédit alors avec exactitude l'existence des ondes P rapides et lentes ainsi que les quasis et pures ondes S, pour toutes les directions de propagation de l'onde, tant que la longueur d'onde correspondante est bien plus grande que l'épaisseur de la strate. L'intérêt principal de ce travail est que, pour les formations à perméabilité moyenne à élevée, comme, par exemple, les sédiments non- consolidés, les grès ou encore les roches fissurées, ces deux mécanismes d'WIFF peuvent avoir lieu à des fréquences similaires. Or, ce scénario, qui est assez commun, n'est pas décrit par les modèles existants pour les milieux poreux stratifiés. Les comparaisons des solutions analytiques des vitesses des ondes P et S et de l'atténuation de la propagation des ondes perpendiculaires à la stratification, avec les solutions obtenues à partir de simulations numériques en éléments finis, fondées sur une solution obtenue en 1D des équations poro- élastiques, montrent un très bon accord, tant que l'hypothèse des grandes longueurs d'onde reste valable. Il y a cependant une limitation de ce modèle qui est liée à son incapacité à prendre en compte les effets inertiels dans les WIFF mésoscopiques quand les deux mécanismes d'WIFF prédominent à des fréquences similaires. Néanmoins, nos résultats montrent aussi que l'erreur associée est relativement faible, même à des fréquences à laquelle sont attendus les deux effets d'inertie et de diffusion, indiquant que le modèle proposé fournit une solution qui est remarquablement proche de sa référence numérique.
Resumo:
L'Europe centrale fait à la fois figure d'interface et de plateforme sur le continent européen dans des jeux politiques et économiques. L'adhésion à l'Union européenne est porteuse d'espoir en termes de développement de territoires encore marqués par près de 50 ans de régime socialiste. L'intégration de ces territoires à la mondialisation a été insufflée avant tout par des acteurs économiques privés, les firmes multinationales, dès le milieu des années 1990. Par leurs capacités d'investissements et leurs organisations en réseaux à l'échelle mondiale, ces firmes multinationales participent majoritairement à ce processus d'intégration qui repose donc avant tout sur des raisons opportunistes et rationnelles. Les firmes multinationales ont positionné ces territoires dans les activités les plus profitables à l'organisation de leur « chaîne globale de valeur » mondiale. On peut dès lors s'interroger sur l'ampleur et les formes d'intégrations à la mondialisation qu'apportent ces implantations d'entreprises multinationales en particulier pour les villes d'Europe centrale. Dans une approche d'analyse empirique multi-niveaux, la thèse replace les villes d'Europe centrale dans la compétition mondiale des firmes multinationales du secteur automobile qui a particulièrement participé à l'intégration de ces territoires dans des stratégies industrielles mondiales. A un niveau micro, nous analysons les stratégies des firmes automobiles par leurs réseaux d'organisation financière dans une approche à la fois gestionnaire et quantitative. A un niveau méso/macro, nous positionnons les villes d'Europe centrale dans les systèmes de villes européen et mondiaux, selon le rôle attribué dans les chaînes globales de valeur. À chaque étape de cette recherche, l'analyse prend en compte différentes échelles spatiales (urbaine, régionale, nationale, continentale) et plusieurs niveaux d'analyse (micro : les réseaux individuels d'entreprises, méso : les liens intra-urbains, macro : les attractivités interurbaines) afin de souligner les interactions multi échelles qui intègrent chaque espace considéré. Cela nous permet d'évaluer en particulier la place des relations de l'ex-UE15 avec l'Europe centrale dans le contexte des réseaux mondiaux. Les formes transnationales des réseaux des entreprises multinationales, se déployant dans un système de lieux identifiés (métropoles ou villes) sont replacées dans les logiques internationales d'accords bilatéraux, de réglementations régionales et de politiques d'attraction (comme fiscales) ou de soutien au développement (aides nationales ou européennes). L'approche empirique multi échelles, articule les différentes dimensions des stratégies de localisation des entreprises déployées dans leur approche du développement et de la stabilisation de leur chaine globale de valeur, avec les positions relatives des territoires et villes à différents niveaux d'intégration. Ainsi la thèse offre une vision originale de l'articulation des développements locaux des territoires face aux stratégies globales des entreprises.