999 resultados para Problèmes de conduite


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The capacity to learn to associate sensory perceptions with appropriate motor actions underlies the success of many animal species, from insects to humans. The evolutionary significance of learning has long been a subject of interest for evolutionary biologists who emphasize the bene¬fit yielded by learning under changing environmental conditions, where it is required to flexibly switch from one behavior to another. However, two unsolved questions are particularly impor¬tant for improving our knowledge of the evolutionary advantages provided by learning, and are addressed in the present work. First, because it is possible to learn the wrong behavior when a task is too complex, the learning rules and their underlying psychological characteristics that generate truly adaptive behavior must be identified with greater precision, and must be linked to the specific ecological problems faced by each species. A framework for predicting behavior from the definition of a learning rule is developed here. Learning rules capture cognitive features such as the tendency to explore, or the ability to infer rewards associated to unchosen actions. It is shown that these features interact in a non-intuitive way to generate adaptive behavior in social interactions where individuals affect each other's fitness. Such behavioral predictions are used in an evolutionary model to demonstrate that, surprisingly, simple trial-and-error learn¬ing is not always outcompeted by more computationally demanding inference-based learning, when population members interact in pairwise social interactions. A second question in the evolution of learning is its link with and relative advantage compared to other simpler forms of phenotypic plasticity. After providing a conceptual clarification on the distinction between genetically determined vs. learned responses to environmental stimuli, a new factor in the evo¬lution of learning is proposed: environmental complexity. A simple mathematical model shows that a measure of environmental complexity, the number of possible stimuli in one's environ¬ment, is critical for the evolution of learning. In conclusion, this work opens roads for modeling interactions between evolving species and their environment in order to predict how natural se¬lection shapes animals' cognitive abilities. - La capacité d'apprendre à associer des sensations perceptives à des actions motrices appropriées est sous-jacente au succès évolutif de nombreuses espèces, depuis les insectes jusqu'aux êtres hu¬mains. L'importance évolutive de l'apprentissage est depuis longtemps un sujet d'intérêt pour les biologistes de l'évolution, et ces derniers mettent l'accent sur le bénéfice de l'apprentissage lorsque les conditions environnementales sont changeantes, car dans ce cas il est nécessaire de passer de manière flexible d'un comportement à l'autre. Cependant, deux questions non résolues sont importantes afin d'améliorer notre savoir quant aux avantages évolutifs procurés par l'apprentissage. Premièrement, puisqu'il est possible d'apprendre un comportement incorrect quand une tâche est trop complexe, les règles d'apprentissage qui permettent d'atteindre un com¬portement réellement adaptatif doivent être identifiées avec une plus grande précision, et doivent être mises en relation avec les problèmes écologiques spécifiques rencontrés par chaque espèce. Un cadre théorique ayant pour but de prédire le comportement à partir de la définition d'une règle d'apprentissage est développé ici. Il est démontré que les caractéristiques cognitives, telles que la tendance à explorer ou la capacité d'inférer les récompenses liées à des actions non ex¬périmentées, interagissent de manière non-intuitive dans les interactions sociales pour produire des comportements adaptatifs. Ces prédictions comportementales sont utilisées dans un modèle évolutif afin de démontrer que, de manière surprenante, l'apprentissage simple par essai-et-erreur n'est pas toujours battu par l'apprentissage basé sur l'inférence qui est pourtant plus exigeant en puissance de calcul, lorsque les membres d'une population interagissent socialement par pair. Une deuxième question quant à l'évolution de l'apprentissage concerne son lien et son avantage relatif vis-à-vis d'autres formes plus simples de plasticité phénotypique. Après avoir clarifié la distinction entre réponses aux stimuli génétiquement déterminées ou apprises, un nouveau fac¬teur favorisant l'évolution de l'apprentissage est proposé : la complexité environnementale. Un modèle mathématique permet de montrer qu'une mesure de la complexité environnementale - le nombre de stimuli rencontrés dans l'environnement - a un rôle fondamental pour l'évolution de l'apprentissage. En conclusion, ce travail ouvre de nombreuses perspectives quant à la mo¬délisation des interactions entre les espèces en évolution et leur environnement, dans le but de comprendre comment la sélection naturelle façonne les capacités cognitives des animaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : DEVENIR NEURO-DEVELOPPEMENTAL DE NOUVEAU-NES TRAITES PAR DU SULFATE DE MAGNESIUM POUR UNE HYPERTENSION PULMONAIRE PERSISTANTE L'hypertension pulmonaire persistante du nouveau-né (HTPP) est un trouble de l'adaptation post-natale de la circulation pulmonaire caractérisé par une défaillance de la diminution normale des résistances vasculaires pulmonaires, accompagné d'un shunt droite-gauche, résultant en une hypoxémie profonde. C'est une pathologie sévère nécessitant des soins intensifs avec un risque augmenté de handicaps neurologiques chez les survivants. Le traitement de l'HTPP du nouveau-né inclut une ventilation mécanique ainsi que différents agents pharmacologiques pour dilater les vaisseaux pulmonaires, dont le sulfate de magnésium (MgSO4) à hautes doses par voie intraveineuse et le monoxyde d'azote par voie inhalée (iN0). Le MgSO4 est une alternative thérapeutique de l'HTPP du nouveau-né avec peu d'effets secondaires et une mortalité basse. Il a aussi été démontré que le MgSO4 est un traitement de l'HTPP du nouveau-né autant efficace que le iN0 et moins coüteux. Des études sur le suivi neuro-développemental de nouveau-nés avec HTPP traités selon différentes méthodes ont été publiées reportant des taux élevés de handicaps majeurs et mineurs. Plus récemment, des études de suivi après traitement par iN0 ont montré des taux plus bas qu'avec des traitements antérieurs. Le devenir neuro-développemental àlong terme d'enfants traités avec du MgSO4 n'a pas été documenté. Le but de cette étude est de décrire le développement des enfants qui ont présenté une HTPP traitée seulement avec du MgS04, de reporter l'incidence de handicaps majeurs et mineurs, et de les comparer à un groupe contrôle d'enfants sains du même âge ainsi qu'aux données de la littérature. La population consiste en 33 nouveau-nés traités pour une HTPP avec seulement du MgSO4 (groupe étude) et 32 nouveau-nés à terme sains (groupe contrôle). Un suivi neurodéveloppemental standardisé et approfondi a été effectué aux âges clés de 18 mois et 5 ans. Les taux de handicaps majeurs à 18 mois et 5 ans dans le groupe étude étaient de 6% et 11,4% respectivement, et de 0% aux deux âges dans le groupe contrôle. Les taux de handicaps mineurs aux mêmes âges étaient de 3% et 26,9% pour le groupe étude, et de 0% et 26,1% pour le groupe contrôle. Les quotients développementaux moyens à 18 mois étaient de 106,6 (DS 1,6) dans le groupe étude et de 118,3 (DS 1,0) dans le groupe contrôle (P < 0,001). L'index général intellectuel en âge préscolaire était de 112.6 (DS 3.7), respectivement de 119.3 (DS 3.1 ), sans différence significative entre les deux groupes. A 18 mois, les taux de handicaps majeurs et mineurs dans les groupes études et contrôle étaient de 6% et 3%. Dans la littérature, des taux entre 0% et 33% ont été décrits. A cet âge, il y avait une différence significative pour tous les scores du test de Griffiths, mëme en tenant compte du status socio-économique de la famille. Ceci suggère un léger retard du développement global et non une altération spécifique. Ces différences n'étaient plus significatives en âge préscolaire, suggérant un rattrapage développemental. Le taux de handicaps majeurs en âge préscolaire pour le groupe étude était de 11.5%, sans aucune infirmité motrice cérébrale. Ces résultats correspondent à ceux d'études de suivi après d'autres traitements jusqu'à l'âge de 24 mois avec des taux variant de 0% à 15%. Le taux de handicaps mineurs était de 26.9% dans le groupe étude et de 26.1% dans le groupe contrôle, sans différence significative entre les deux groupes. L'incidence de handicaps mineurs dans le groupe étude était plutôt élevée en comparaison aux données de la littérature (6 à 22% à 6 ans). Une explication possible est que nous avons considéré des problèmes de langage et de comportement comme handicaps mineurs. Ceci suggère une différence méthodologique et non une plus mauvaise issue dans nos deux groupes. Les évaluations cognitives des enfants des deux groupes se trouvaient dans la norme, ce qui est aussi le cas dans la littérature. En conclusion, cette étude longitudinale non randomisée d'enfants traités avec du MgSO4 seul pour une HTPP sévère ne montre pas de conséquences sur le devenir neuro-développemental à long terme. Cette étude le démontre pour la première fois. Malgré le fait que iN0 soit le traitement actuellement recommandé pour l'HTPP du nopuveau-né, le MgSO4 reste largement utilisé, en particulier dans des pays en voie de développement. L'absence de complications neuro-développementales majeures à long terme permet de considérer l'administration du MgSO4 pour le traitement de l'HTPP du nouveau-né en cas de non réponse ou d'inaccessibilité au iNO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recently, the introduction of second generation sequencing and further advance-ments in confocal microscopy have enabled system-level studies for the functional characterization of genes. The degree of complexity intrinsic to these approaches needs the development of bioinformatics methodologies and computational models for extracting meaningful biological knowledge from the enormous amount of experi¬mental data which is continuously generated. This PhD thesis presents several novel bioinformatics methods and computational models to address specific biological questions in Plant Biology by using the plant Arabidopsis thaliana as a model system. First, a spatio-temporal qualitative analysis of quantitative transcript and protein profiles is applied to show the role of the BREVIS RADIX (BRX) protein in the auxin- cytokinin crosstalk for root meristem growth. Core of this PhD work is the functional characterization of the interplay between the BRX protein and the plant hormone auxin in the root meristem by using a computational model based on experimental evidence. Hyphotesis generated by the modelled to the discovery of a differential endocytosis pattern in the root meristem that splits the auxin transcriptional response via the plasma membrane to nucleus partitioning of BRX. This positional information system creates an auxin transcriptional pattern that deviates from the canonical auxin response and is necessary to sustain the expression of a subset of BRX-dependent auxin-responsive genes to drive root meristem growth. In the second part of this PhD thesis, we characterized the genome-wide impact of large scale deletions on four divergent Arabidopsis natural strains, through the integration of Ultra-High Throughput Sequencing data with data from genomic hybridizations on tiling arrays. Analysis of the identified deletions revealed a considerable portion of protein coding genes affected and supported a history of genomic rearrangements shaped by evolution. In the last part of the thesis, we showed that VIP3 gene in Arabidopsis has an evo-lutionary conserved role in the 3' to 5' mRNA degradation machinery, by applying a novel approach for the analysis of mRNA-Seq data from random-primed mRNA. Altogether, this PhD research contains major advancements in the study of natural genomic variation in plants and in the application of computational morphodynamics models for the functional characterization of biological pathways essential for the plant. - Récemment, l'introduction du séquençage de seconde génération et les avancées dans la microscopie confocale ont permis des études à l'échelle des différents systèmes cellulaires pour la caractérisation fonctionnelle de gènes. Le degrés de complexité intrinsèque à ces approches ont requis le développement de méthodologies bioinformatiques et de modèles mathématiques afin d'extraire de la masse de données expérimentale générée, des information biologiques significatives. Ce doctorat présente à la fois des méthodes bioinformatiques originales et des modèles mathématiques pour répondre à certaines questions spécifiques de Biologie Végétale en utilisant la plante Arabidopsis thaliana comme modèle. Premièrement, une analyse qualitative spatio-temporelle de profiles quantitatifs de transcripts et de protéines est utilisée pour montrer le rôle de la protéine BREVIS RADIX (BRX) dans le dialogue entre l'auxine et les cytokinines, des phytohormones, dans la croissance du méristème racinaire. Le noyau de ce travail de thèse est la caractérisation fonctionnelle de l'interaction entre la protéine BRX et la phytohormone auxine dans le méristème de la racine en utilisant des modèles informatiques basés sur des preuves expérimentales. Les hypothèses produites par le modèle ont mené à la découverte d'un schéma différentiel d'endocytose dans le méristème racinaire qui divise la réponse transcriptionnelle à l'auxine par le partitionnement de BRX de la membrane plasmique au noyau de la cellule. Cette information positionnelle crée une réponse transcriptionnelle à l'auxine qui dévie de la réponse canonique à l'auxine et est nécessaire pour soutenir l'expression d'un sous ensemble de gènes répondant à l'auxine et dépendant de BRX pour conduire la croissance du méristème. Dans la seconde partie de cette thèse de doctorat, nous avons caractérisé l'impact sur l'ensemble du génome des délétions à grande échelle sur quatre souches divergentes naturelles d'Arabidopsis, à travers l'intégration du séquençage à ultra-haut-débit avec l'hybridation génomique sur puces ADN. L'analyse des délétions identifiées a révélé qu'une proportion considérable de gènes codant était affectée, supportant l'idée d'un historique de réarrangement génomique modelé durant l'évolution. Dans la dernière partie de cette thèse, nous avons montré que le gène VÏP3 dans Arabidopsis a conservé un rôle évolutif dans la machinerie de dégradation des ARNm dans le sens 3' à 5', en appliquant une nouvelle approche pour l'analyse des données de séquençage d'ARNm issue de transcripts amplifiés aléatoirement. Dans son ensemble, cette recherche de doctorat contient des avancées majeures dans l'étude des variations génomiques naturelles des plantes et dans l'application de modèles morphodynamiques informatiques pour la caractérisation de réseaux biologiques essentiels à la plante. - Le développement des plantes est écrit dans leurs codes génétiques. Pour comprendre comment les plantes sont capables de s'adapter aux changements environnementaux, il est essentiel d'étudier comment leurs gènes gouvernent leur formation. Plus nous essayons de comprendre le fonctionnement d'une plante, plus nous réalisons la complexité des mécanismes biologiques, à tel point que l'utilisation d'outils et de modèles mathématiques devient indispensable. Dans ce travail, avec l'utilisation de la plante modèle Arabidopsis thalicinci nous avons résolu des problèmes biologiques spécifiques à travers le développement et l'application de méthodes informatiques concrètes. Dans un premier temps, nous avons investigué comment le gène BREVIS RADIX (BRX) régule le développement de la racine en contrôlant la réponse à deux hormones : l'auxine et la cytokinine. Nous avons employé une analyse statistique sur des mesures quantitatives de transcripts et de produits de gènes afin de démontrer que BRX joue un rôle antagonisant dans le dialogue entre ces deux hormones. Lorsque ce-dialogue moléculaire est perturbé, la racine primaire voit sa longueur dramatiquement réduite. Pour comprendre comment BRX répond à l'auxine, nous avons développé un modèle informatique basé sur des résultats expérimentaux. Les simulations successives ont mené à la découverte d'un signal positionnel qui contrôle la réponse de la racine à l'auxine par la régulation du mouvement intracellulaire de BRX. Dans la seconde partie de cette thèse, nous avons analysé le génome entier de quatre souches naturelles d'Arabidopsis et nous avons trouvé qu'une grande partie de leurs gènes étaient manquant par rapport à la souche de référence. Ce résultat indique que l'historique des modifications génomiques conduites par l'évolution détermine une disponibilité différentielle des gènes fonctionnels dans ces plantes. Dans la dernière partie de ce travail, nous avons analysé les données du transcriptome de la plante où le gène VIP3 était non fonctionnel. Ceci nous a permis de découvrir le rôle double de VIP3 dans la régulation de l'initiation de la transcription et dans la dégradation des transcripts. Ce rôle double n'avait jusqu'alors été démontrée que chez l'homme. Ce travail de doctorat supporte le développement et l'application de méthodologies informatiques comme outils inestimables pour résoudre la complexité des problèmes biologiques dans la recherche végétale. L'intégration de la biologie végétale et l'informatique est devenue de plus en plus importante pour l'avancée de nos connaissances sur le fonctionnement et le développement des plantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre d'une étude rétrospective au sein d'une unité de réhabilitation, nous avons cherché à examiner le degré de respect de recommandations de pratique clinique (RPC) abordant le traitement pharmacologique au long cours de la schizophrénie, par des médecins qui n'en ont qu'une connaissance indirecte. The Expert Consensus Guideline for the treatment of schizophrenia (ECGTS) a été retenu comme référence sur la base d'une comparaison avec cinq autres RPC principales. Sur un collectif de 20 patients, les recommandations de l'ECGTS sont totalement respectées dans 65 % des cas, partiellement respectées dans 10 % et non respectées dans 25 %, démontrant ainsi que la pratique clinique est clairement perfectible (principalement dans le traitement des symptômes psychotiques et dépressifs). Cependant, le respect des RPC ne garantit pas forcément la résolution de tous les problèmes cliniques rencontrés : 12 patients sur 20 présentent des effets secondaires à l'évaluation clinique et pour huit d'entre eux, les recommandations à ce niveau, sont respectées. Notre étude montre cependant que le choix et l'application d'une RPC ne sont pas simples. Les RPC actuelles donnent peu ou pas d'instruments de mesure, ni de critères précis pour évaluer les problèmes cliniques auxquels elles font référence. L'avenir appartient donc à des RPC qui proposent, outre les recommandations cliniques elles-mêmes, les moyens de leur vérification et de leur application sur le terrain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exposition aux bioaérosols (endotoxines, bactéries et spores de champignons en suspension dans l'air) et les problèmes de santé qui en découlent sont bien connus dans certains milieux professionnels (station d'épuration des eaux usées, élevages d'animaux, traitements des déchets organiques, travailleurs du bois, récolte et manutention des céréales, agriculture...). Cependant, les études avec investigations des concentrations aéroportées d'endotoxines et de micro-organismes se font très rares dans d'autres milieux professionnels à risque. Cette note d'actualité scientifique présente la synthèse de deux publications visant à quantifier les bioaérosols dans deux milieux professionnels rarement étudiés : les cabinets dentaires et les cultures maraîchères de concombres et tomates. Les dentistes ainsi que leurs assistants sont souvent bien informés sur les risques chimiques, les risques liés aux postures et les risques d'accidents avec exposition au sang. En revanche, le risque infectieux lié à une exposition aux bioaérosols est la plupart du temps méconnu. La flore bactérienne buccale est très riche et l'utilisation d'instruments tels que la fraise, le détartreur à ultrasons et le pistolet air-eau entraîne la dissémination aéroportée d'une grande quantité de bactéries. De plus, la conception des instruments générant un jet d'eau (diamètre des tubulures) favorise la formation de biofilm propice à l'adhérence et à la multiplication de micro-organismes à l'intérieur même des tuyaux. Ces micro-organismes se retrouvent alors en suspension dans l'air lors de l'utilisation de ces pistolets.L'inhalation de grandes quantités de ces micro-organismes pourrait alors engendrer des problèmes respiratoires (hypersensibilisation, asthme). De plus la présence de pathogènes, tels que les légionelles, les pseudomonas et les mycobactéries à croissance rapide, dans l'eau de ces unités dentaires peut aussi entraîner des risques infectieux pour les patients et pour les soignants. La production de tomates et concombres en Europe en 2008, était respectivement de 17 et 2 millions de tonnes dont 850 000 et 140 000 tonnes pour la France. La récolte, le tri et la mise en cageots ou en barquette individuelle de ces légumes génèrent de la poussière riche en matières organiques. Très peu d'études ont investigué l'exposition à ces poussières et aux endotoxines dans les serres de cultures intensives. Notamment, les données concernant les cultures de tomates sont inexistantes bien que ce légume soit un des plus cultivés en Europe. [Auteur]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La trace matérielle est une information élémentaire sur une activité qui a lieu dans un environnement physique et social immédiat et qui relève principalement de la sécurité. Leur exploitation doit donc s'étendre au-delà du système judiciaire, vers le renseignement en général et l'étude de phénomènes. Des profils chimiques extraits à partir des saisies de stupéfiants, des montres contrefaites, des courriels non-sollicités, les restes d'incendies sont des exemples de traces qui résultent d'activités répétitives qu'il convient de mieux saisir. La science forensique et la criminologie se rencontrent alors pour étudier des problèmes de sécurité munis de nouveaux jeux d'information. La constitution de banques de données pertinentes est d'ailleurs une préoccupation majeure de la recherche en criminologie. Par des sondages toujours plus larges et des techniques modernes d'acquisition s'appuyant sur les technologies de l'information, la criminologie peut maintenant étendre les analyses comparatives et longitudinales de phénomènes liés à la délinquance des jeunes. Mais la validité et la pertinence de comparaisons doivent être discutées, notamment lorsque les analyses portent sur la violence envers les femmes dans des contextes différents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

0 Abstract L'incidence du mélanome est en nette augmentation en Europe et aux Etats-Unis. La Chirurgie peut être curative au stade précoce de la maladie,la radiothérapie se pratique À visée palliative, les chimiothérapies n'ont montré que peu d'effet. Les progress actuels se font via l'immunothérapie. Des traitements par l'interleukine-2 et l'interféron-α se sont montrés efficaces chez certains patients, mais leur utilisation est limitée par leur forte toxicité. Depuis 2011, en Suisse, une nouvelle molécule a été mise sur le marché, l'ipilimumab (Yervoy®). Il s'agit d'un anticorps! monoclonal humain dirigé contre le CTLA4. Il en résulte une activation non spécifique du système immunitaire. Une étude randomisée de phase IIIa été conduite au Etats-Unis. Elle démontre une augmentation de la survie chez les patients atteints de melanoma métastatique traits par ipilimumab, sans traitement préalable des métastases. Le but de cette etude est de determiner s'il est possible, par le biais de l'imagerie PET-CTau 18F-FDG, de prédire la réponse individuelle au traitement par ipilimumab, afin d'optimiser la prise en charge de ces patients. 0.1 Méthode Les patients atteints de mélanome métastatique sont exposés au traitement d'ipilimumab selon les recommandations de Bristol-Myers Squibb. Puis ils effectuent des PET-CT au F-18-FDG selon! le! protocole (CER 400/11, annexé) de l'étude. Les images sont!analysées selon les critères PERCIST (PETResponse Criterias In Solid Tumors) et le TLG (Total Lesion Glycolysis) est calculé. Parallèlement, des prises de sang sont effectuées et les échantillons sont analysés à l'institut Ludwig (LICR, Unil) selon les critères imRC qui determinant la réponse immunologique au traitement. 0.2 Résultats Nous notons une discrépance dans les résultats. Lorsque nous observons une maladie stable avec les critères immunologiques imRC, nous observons une maladie progressive avec lescritères PERCIST. 0.3 Discussion - Conclusion Nous n'avons pu faire entrer que cinq patients dans l'étude, dont trois étaient vivants à trois mois, ce qui a restreint le nombre de données analysables. Les discrépances que nous observons dans nos résultats pourraient être dues au fait que le PET-CT au 18FDG ne nous permet pas de différencier l'activité tumorale de l'activité inflammatoire péri-tumorale. Ce biais pourrait être à l'avenir prévenu en utilisant du 18FLT, un marqueur plus sélectif des cellules tumorales.L'analyse desimages avec les critères de total-lesion glycolysis a été impossible au vu du nombre de lésions que présentaient certains patients. Les critères PERCIST exigent un protocole d'acquisition très strict. La corrélation entre les images, les données immunologiques et la clinique mérite d'être suivie sur le long terme, car il pourrait y avoir une réponse positive plus tardive du traitement par ipilimumab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé En Suisse, les programmes de désaccoutumance au tabac se réfèrent généralement au modèle de préparation au changement de Prochaska et DiClemente (1983), Les patients atteints de maladies somatiques liées au tabagisme comme les pathologies cardiovasculaires ou pulmonaires accèdent facilement à ces programmes, contrairement aux patients présentant une dépendance à des drogues illicites. La prévalence de fumeurs dans cette population est pourtant élevée et les problèmes engendrés par le tabac sont importants, non seulement d'un point de vue individuel mais aussi en terme de santé publique. Il est par conséquent intéressant d'évaluer la motivation concernant la désaccoutumance au tabac de patients toxicomanes entreprenant un sevrage de drogues illicites. Dans cette étude, nous avons évalué les stades de préparation au changement concernant la dépendance au tabac chez 100 patients toxicomanes hospitalisés sur un mode volontaire dans le cadre d'un programme de sevrage à des drogues illégales. L'évaluation s'est faite à l'aide d'un auto-questionnaire dont les résultats indiquent qu'une minorité de patients sont décidés à interrompre la consommation de tabac. En effet, seul 15% des patients se trouvaient aux stades de contemplation ou de décision. De plus, 93% des sujets considéraient l'arrêt du tabac comme difficile ou très difficile. Ces données montrent qu'il existe un décalage important entre la motivation relative au sevrage de drogues illégales et la motivation liées à l'arrêt du tabac. En effet, malgré leur motivation élevée pour se sevrer de drogues illicites, la proportion de patients restant au stade de précontemplation concernant la désaccoutumance au tabac reste élevée. Diverses hypothèses permettent d'expliquer ces résultats, notamment la perception que la désaccoutumance au tabac est plus difficile à réaliser que le sevrage de substances illicites. Abstract Nicotine cessation programmes in Switzerland, which are commonly based on the stage of change model of Prochaska and DiClemente (1983), are rarely offered to patients with illicit drug dependence. This stands in contrast to the high smoking rates and the heavy burden of tobacco-related problems in these patients. The stage of change was therefore assessed by self-administered questionnaire in 100 inpatients attending an illegal drug withdrawal programme. Only 15% of the patients were in the contemplation or decision stage. 93% considered smoking cessation to be difficult or very difficult. These data show a discrepancy between the motivation to change illegal drug consumption habits and the motivation for smoking cessation. The high pro-portion of patients remaining in the precontemplation stage for smoking cessation, in spite of their motivation for illicit drug detoxification, may be due to the perception that cessation of smoking is more difficult than illicit drug abuse cessation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s'inscrit dans le cadre de la Pragmalinguistique et d'Analyse du discours oral et offre une étude approfondie d'un talk show télévisuel espagnol, Diario de Patricia, format dans lequel la présentatrice du même nom reçoit des invités pour parler avec eux de leurs problèmes personnels. Ce travail propose une relecture de grandes théories pragmatiques (comme la Théorie des actes du langage, le Principe de coopération, la Théorie de la politesse ou encore la Théorie de la pertinence) et leur application à des discours réels. Les principes de la linguistique de l'interaction permettent également de décrire l'organisation des talk shows, les stratégies discursives de la présentatrice, la façon dont elle prépare chaque émission et planifie les interviews avec ses invités afin de provoquer chez ceux-ci des réactions émotionnelles qui l'intéressent en vue du taux d'audience. Ce travail de recherche présente également une analyse approfondie des mécanismes pragmalinguistiques utilisés par la présentatrice pour imposer son autorité et pour maîtriser la situation d'une façon que l'auteure qualifie de manipulation des invités, toujours sous une apparence d'empathie et de compréhension.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) Cet ouvrage collectif propose un état des discours sur le phénomène religieux aujourd'hui au regard des sciences historiques, culturelles, sociales, anthropologiques, philosophiques et théologiques. Le débat soulevé par la question de la validité à laquelle prétendent les phénomènes religieux met le doigt sur une série de problèmes centraux tant au plan philosophique que socio-culturel: le conflit entre universalité et particularité ou la possibilité d'une théorie de la religion, de sa pertinence et de ses enjeux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) Dans une religion de l'alliance, la question se pose de la rencontre avec Dieu et de manière subordonnée la question de l'habitation de Dieu sur terre. Elle hante la conscience des croyants et du peuple élu dont la Bible décrit l'itinéraire. Comment l'habitation de Dieu sur la terre, dont il est le créateur, est-elle conçue dans la Bible et dans la littérature intertestamentaire, étant entendu que cette habitation ne se limite pas forcément au Temple ? Comment la « maison » de Dieu est-elle symbolisée ? De quelle théologie est-elle porteuse ? Avec quels avantages, quels problèmes, quelles perversions ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette revue évoque principalement les nouveautés dans le traitement de l'hépatite B chronique, les problèmes de résistance qui émergent et les recommandations internationales pour le suivi du patient. Sont également discutées la prophylaxie postexposition de l'hépatite A, la durée de traitement des hépatites C chroniques, la vaccination contre l'hépatite E, ainsi qu'une étude contrôlée qui a évalué l'efficacité de la pioglitazone dans la stéatohépatite non alcoolique. Des études utiles pour la pratique clinique concernant l'hépatite alcoolique, les effets secondaires hépatiques du paracétamol à dose thérapeutique et la révision des critères diagnostiques et de la prise en charge du syndrome hépato-rénal sont également discutés. This review highlights new treatment options in chronic hepatitis B, issues related to antiviral resistance and current recommendations for the monitoring of patients on treatment. We also discuss post-exposure prophylaxis of hepatitis A, treatment duration in chronic hepatitis C and recent studies exploring vaccination against hepatitis E and pioglitazone for nonalcoholic steatohepatitis. Finally, we will briefly comment new findings in alcoholic hepatitis as well as acetaminophen hepatotoxicity and summarize revised criteria for the diagnosis and management of hepatorenal syndrome