503 resultados para tenant
Resumo:
RÉSUMÉ Comparaison dés habitudes de prescription de médicaments psychotropes dans des cliniques de psychiatrie adulte et de psychogériatrie Afin de pouvoir comparer l'utilisation de médicaments psychotropes et non psychotropes, la proportion des nouveaux et celle des anciens antidépresseurs ou antipsychotiques, ce travail a eu pour but d'étudier les prescriptions médicamenteuses dans deux groupes de patients hospitalisés, l'un en milieu psychiatrique adulte (de 18 à 64 ans), l'autre en milieu psychogériatrique (plus de 64 ans). Lors d'un jour de référence en Mai 2000, toutes les prescriptions médicamenteuses dans deux hôpitaux psychiatriques universitaires abritant l'un une population adulte, l'autre gériatrique, ont été relevées chez tous les patients. Le coût financier total par patient a été comparé en tenant compte de la proportion des médicaments non psychotropes. La médication de 61 patients adultes et de 82 patients gériatriques a ainsi été analysée. Le nombre moyen de médicaments non psychotropes par patient était plus élevé dans la population âgée (p< 0.001), ce qui se reflète également par une prescription totale de médicaments par patient en moyenne plus élevée dans cette population (p<0.001). L'utilisation de benzodiazépines était inférieure dans là population psychogériatrique (p<0.001), même si l'on y additionne celle en association avec les antidépresseurs (p<0.001). Le coût financier du traitement pharmacologique quotidien d'un patient adulte était significativement inférieur à celui d'un patient gériatrique dont la comédication somatique est nécessairement plus importante (9.3 ± 7.2 CHF/patient contre 14.1 ± 9.5 CHF/patient) (p<0.009). En conclusion, cette étude confirme l'importance des habitudes locales dans la prescription médicamenteuse par les médecins, à l'exception de l'utilisation des benzodiazépines pour lesquelles les psychogériâtres semblent moins favorables.
Resumo:
Dass der Weg der parlamentarischen Mitwirkung im Bereich der Aussenpolitik steinig werden sollte, widerspiegelte sich bereits in der Entstehungsgeschichte der Aussenpolitischen Kommissionen (APK). Diese haben zum heutigen Zeitpunkt unter anderem dafür zu sorgen, dass das Parlament seine Mitwirkungsrechte in auswärtigen Angelegenheiten frühzeitig und wirk¬sam wahrnehmen kann. Nebst verschiedensten Instrumenten auf Verfassungs- und Gesetzesebene steht den APK ein wichtiges Mitwirkungsinstrument zur Verfügung: die Information und Konsultation gemäss Art. 152 Parlamentsgesetz (ParlG). Seit Inkrafttreten dieser Bestimmung im Dezember 2003 offenbart sich jedoch, dass sich die praktische Umsetzung des Gesetzesartikels mit den damaligen Vorstellungen des Gesetzgebers anlässlich der Erarbeitung dieses parlamentarischen Instrumentes nicht deckt. Der Gesetzgeber wies seiner¬zeit auf das für die Umsetzung bedeutende Vertrauensverhältnis zwischen Bundesrat und Parlament hin. Allerdings beeinflussen nun Spannungen und Konkurrenz zwischen der Exekutive und der Legislative die Umsetzung von Art. 152 ParlG. Die vorliegende Arbeit versucht, die geschichtlichen Hintergründe, die Entstehung, den Sinn und Zweck sowie die Praxis von Art. 152 ParlG vor dem Hintergrund des erwähnten Spannungsfelds und im Zusammenspiel mit den weiteren Mitwirkungsinstrumenten im Bereich der Aussenpolitik darzulegen. Comme le montre déjà l'historique des Commissions de politique extérieure (CPE), la participation du Parlement à la politique extérieure n'est pas dénuée d'obstacles. A l'heure actuelle, les CPE doivent notamment faire en sorte que le Parlement puisse faire valoir, en amont et avec efficacité, son droit de participation dans le domaine de la politique étrangère de la Suisse. Outre divers instruments figurant dans la Constitution et les lois, les CPE disposent d'un important moyen de participation: l'information et la consultation au sens de l'art. 152 de la loi sur le Parlement (LParl). Depuis l'entrée en vigueur de cette disposition en décembre 2003, il s'avère toutefois que l'application concrète de cet article de loi ne ré¬pond pas entièrement aux attentes du législateur lors de l'élaboration de cet instrument parlementaire. En effet, le législateur s'était alors basé sur la relation de confiance entre le Conseil fédéral et le Parlement, relation essentielle à la mise en oeuvre de cet article. La pratique montre cependant que la mise en oeuvre de l'art. 152 LParl est influencée par des tensions et par une relation de concurrence existant entre l'exécutif et le législatif. Le présent travail entend exposer le contexte historique de l'art. 152 LParl, son élaboration, son but et sa mise en oeuvre, tout en tenant compte des éléments de tension et des autres instruments permettant la participation en matière de politique extérieure.
Resumo:
Pour faire évoluer la science forensique, il faut pouvoir analyser des notions élémentaires appartenant au quotidien et non se focaliser exclusivement sur le développement de nouvelles techniques. Encore non étudiée sous cette perspective, la pertinence fait partie de ces notions fondamentales forensiques pour lesquelles une telle analyse mérite d'être menée. En tenant compte du constat formulé par Inman et Rudin (2000), à savoir que la tâche la plus compliquée est de pouvoir reconnaître des traces matérielles pertinentes, s'interroger sur la pertinence de la trace soulève bien plus qu'une question. Cela met en évidence une multitude de paramètres intervenant dans les processus de raisonnement et de décision opérés sur les lieux d'investigations. Du reste trois facteurs susceptibles d'avoir une influence notable sur la recherche de traces apparaissent : Savoir, Formation et Expérience ou S.F.E. Ils forment, en étant regroupés, un bagage spécifique au spécialiste, composant sa connaissance dans le domaine et à même de jouer un rôle d'importance dans son travail opéré sur les lieux. Afin de déterminer l'influence de ce bagage sur le concept de pertinence, la démarche expérimentale se conduit en deux temps. Dans une première phase, l'approche se veut exploratoire au travers d'un stage réalisé dans une unité d'interventions, permettant de poser des bases statistiques et de dresser une réalité du travail sur le terrain. Puis au cours de la phase expérimentale, la conduite d'entretiens semi-directifs, couplés à un sondage, vise à déterminer quelle perception du concept de pertinence ressort parmi les volontaires interrogés. Ces derniers sont issus de groupes composés de futurs criminalistes, qui suivent une formation forensique à l'Université de Lausanne, et de praticiens expérimentés de formation police et / ou scientifique. En tentant de clarifier le concept de pertinence, l'objectif est de fournir des outils pour renforcer ou orienter la formation de spécialistes sur le terrain, en ayant permis d'amorcer une démarche de réflexion logique face aux champs d'investigations. En se voulant utile pour mieux formaliser la détection et la collecte des traces pertinentes sur les lieux, cela constitue une aide à la gestion : un atout non négligeable à l'heure où les contrôles qualité et les standards ne sont plus seulement une tendance mais une réalité qui s'impose.
Resumo:
Comprend : [ Bandeau et lettre historiée p. 1. Début du Dialogue Premier. Cerfs et aigle dans le bandeau. Figure d'homme tenant un calamme et un encrier, dans le lettre. XVIè siècle.] [ Cote : BNF B 35646. ] ; [ Planche p. 56. Astronomie. Figure de la terre et tracés géométriques illustrant le Dialogue Trois. XVIè siècle.] [ Cote : BNF B 35647. ] ; [ Planche p. 58. Astronomie. Figure de la Terre et du Soleil illustrant le Dialogue Trois. XVIè siècle.] [ Cote : BNF B 35648. ] ; [ Planche p. 60. Astronomie. Figure de la terre illustrant le Dialogue Trois. XVIè siècle.] [ Cote : BNF B 35649. ] ; [ Planche p. 62. Astronomie. Figure géométrique illustrant le Dialogue Trois. XVIè siècle.] [ Cote : BNF B 35650. ] ; [ Planche p. 75. Astronomie. Figure géométrique illustrant le Dialogue Trois. XVIè siècle.] [ Cote : BNF B 35651. ] ; [ Figure p. 79 illustrant le Dialogue Trois. Navire en mer, vents. XVIè siècle.] [ Cote : BNF B 35652. ] ; [ Planche p. 98. Astronomie. Figure géométrique illustrant le Dialogue Quatre. XVIè siècle.] Ptolemaeus copernicus. [ Cote : BNF B 35653. ] ; [ Planche p. 104. Astronomie. Figure géométrique illustrant le Dialogue Cinq. XVIè siècle.] [ Cote : BNF B 35654. ] ; [ Planche p. 125. Astronomie. Figure géométrique illustrant le Dialogue Cinq. XVIè siècle.] [ Cote : BNF B 35655. ]
Resumo:
With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.
Resumo:
A la demande d'une quarantaine de médecins du travail préoccupés par les conditions de travail dans les centres d'appels téléphoniques (CT) et la santé des téléopérateurs (TO), une enquête épidémiologique a été conduite par l'INRS.Il s'agit d'étudier, chez des TO, les relations entre, d'une part des contraintes de travail perçues et des marqueurs de santé et d'autre part, des facteurs organisationnels (FO) déclarés par les responsables de plateaux et des contraintes au travail perçues par les TO. Il s'agissait donc de mettre en évidence les caractéristiques organisationnelles qui ont des conséquences, via les contraintes, sur la santé en tenant compte des principaux facteurs de confusion.Quatorze FO ont été identifiés comme étant les plus souvent associés aux contraintes. Par ailleurs cette étude met en évidence que les relations entre FO et marqueurs de santé ne sont pas directes et passent le plus souvent par la perception des contraintes.Malgré son caractère transversal, cette étude permet de conclure sur le rôle de certains FO et l'implication de certaines contraintes dans l'apparition de problèmes de santé ouvrant des perspectives de prévention primaire et secondaire tant individuelle (dépistage, surveillance...) que collective (évaluation des conditions de travail et de la santé).Le questionnaire sur les caractéristiques organisationnelles, spécialement élaboré, sera bientôt accessible, et pourra être un instrument utile pour les évaluations de terrain. [Auteurs]
Resumo:
En 36 chapitres, concis et efficaces, cet ouvrage propose des repères pour la prise en charge des patients adultes en médecine générale et en médecine interne ambulatoire. Les thèmes ont été choisis en fonction des besoins exprimés par les médecins en formation. Chaque chapitre propose une stratégie diagnostique et thérapeutique dans une perspective d'usage rationnel des ressources du système de santé, en tenant compte des données les plus récentes de la médecine basée sur les preuves. Ce livre confirme que la pratique de la médecine reste un subtil assemblage des connaissances scientifiques, de l'expertise clinique et des valeurs du patient.
Resumo:
Cette recherche sur les jeux d'argent et de hasard au sein de la population des jeunes résidents Suisses avait trois objectifs. Pour avoir des données de base, nous nous sommes d'une part intéressés à la prévalence de ce comportement et, basé sur des critères de fréquence, avons mis en évidence une population plus à risque de subir des conséquences néfastes du jeu;à savoir ceux qui jouent au minimum une fois par semaine. Le deuxième objectif était de déterminer s'il existait une association entre la fréquence du jeu et 1) l'utilisation de substances, 2) une mauvaise santé mentale et/ou 3) un faible support social, comme cela a été décrit dans la littérature pour les joueurs pathologiques. Finalement, pour savoir si les joueurs fréquents étaient «fixés» sur un seul type de jeu ou au contraire jouaient de manière non-sélective, nous avons effectué la corrélation entre la fréquence de jeu et le nombre de jeux différents dans lesquels les jeunes étaient impliqués.Pour ces analyses, nous avons utilisé la base de données de l'Enquête Suisse sur la Santé 2007, une étude transversale interrogeant des résidents suisses âgés de 15 ans ou plus. Cette enquête a été menée en deux étapes: 1) un questionnaire téléphonique (taux de réponse: 66.3%) puis 2) un questionnaire écrit (taux de réponse: 80.5% de ceux qui ont répondu à l'interview téléphonique). En tenant compte de la pondération pour l'échantillon de participants ayant répondu aux deux types d'interviews, nous avons considéré uniquement les personnes âgées de 15 à 24 ans. Au total 1116 (582 hommes) participants ont été retenus pour notre étude.Pour répondre au second objectif, nous avons comparé trois groupes. Les non-joueurs (NJ, n=577), les joueurs occasionnels (JO, n=388) et les joueurs fréquents (JF, n=151) ont été étudiés d'abord grâce à des analyses bivariées, puis à une régression multinomiale permettant de tenir compte des facteurs confondants. La sélection des variables pour la régression a été basée sur une méthode «bootstrap» permettant de produire des résultats représentatifs de la population entière et pas uniquement de l'échantillon analysé.Nous avons procédé de manière similaire pour répondre à la troisième question de recherche, mais en comparant uniquement les joueurs occasionnels et les joueurs fréquents.Les résultats ont mis en évidence que 48.3% des jeunes résidents suisses étaient impliqués dans au moins un type de jeu dans l'année précédente. Par ailleurs, 13.5% (n=151) des 15 à 24 ans jouaient au minimum une fois par semaine.Au niveau bivarié, la fréquence de jeu était associée à des facteurs sociodémographiques comme le sexe masculin, l'âge (les JO étant les plus âgés), et le revenu personnel. La fréquence de jeu était également significativement associée au fait de fumer du tabac quotidiennement, d'être actuellement fumeur de cannabis et d'avoir une consommation d'alcool à risque (beuveries). La mauvaise santé mentale (épisode de dépression majeure ou détresse psychologique) et le faible support relationnel (personne de confiance dans l'entourage ou activités de loisirs) n'étaient pas associés à la fréquence de jeu de manière significative, bien qu'une nette tendance en faveur des NJ ait pu être mise en évidence. Au niveau multivarié, les JO et JF étaient plus âgés, plus souvent de sexe masculin et habitaient plus souvent en Suisse romande que les NJ. Les JO étaient plus à risque que les NJ de se soumettre à des beuveries de manière occasionnelle et les JF étaient plus à risque que les NJ d'être des fumeurs de tabac quotidiens.En comparant les JO et les JF, nous avons obtenu une correlation élevée (r=0.85;p<0.0001) entre la fréquence de jeu et le nombre de jeux dans lesquels les jeunes étaient impliqués. Ceci indiquant que les JF ne semblent pas très sélectifs quant au type de jeu auquel ils jouent.Dans la mesure où le jeu est un comportement très prévalent au sein de la population des jeunes résidents suisses, il doit probablement être vu comme une conduite faisant partie des comportements exploratoires de l'adolescence. Néanmoins, au vu des comportements à risque qui y sont associés, la question du jeu devrait être soulevée par les médecins s'occupant de jeunes adultes à des fins de prévention.
Resumo:
Cet article contribue au modèle d'estimation des crues extrêmes, utilisant une pluie distribuée dans le temps et dans l'espace, à laide des nuages et de la direction du vent. Une méthode de distribution spatio-temporelle de la pluie a d'abord été réalisée. Le modèle utilisant des événements de crue réelle mesurée sur un bassin test de la Suisse a ensuite été calibré. Enfin, la modélisation de la fonte des neiges, basée sur le transfert de chaleur est décrite en tenant compte de l'hypothèse que toutes les sources de chaleur (rayonnement solaire, chaleur du sol et de l'air) agissent lentement sauf la pluie, qui, même très faible, peut provoquer des inondations considérables. Ces facteurs ajoutés rendent le modèle développé plus proche de la réalité. Ils offrent une flexibilité dans les conditions initiales auxquelles s'ajoutent la durée de la pluie, la vitesse et la direction du vent et fournissent ainsi une image complète sur l'hydrogramme de crue.
Resumo:
Rapport de synthèse : Bien que les complications sévères de l'anesthésie soient actuellement rares, des informations contradictoires existent à propos du rôle et de l'importance de l'hypertension artérielle chronique sur la survenue de complications en cours d'anesthésie. En raison de la prévalence élevée de l'hypertension artérielle dans la population et du grand nombre d'anesthésies effectuées, il est important de clarifier cette relation. Le but de l'étude était d'évaluer si les personnes hypertendues étaient à risque accru de présenter des complications lors d'anesthésies à partir de données collectées de routine lors d'anesthésies usuelles réalisées en Suisse. Nous avons utilisé les données figurant dans le registre ADS (Anesthésie Données Suisse) correspondant à des anesthésies, générales ou locorégionales, réalisées pour chirurgie élective chez des adultes, entre 2000 et 2004 dans 24 hôpitaux suisses. L'attention était portée principalement sur les incidents cardio-vasculaires, mais les autres incidents relevés de routine ont aussi été évalués. La présence d'une hypertension artérielle chronique était définie par la présence d'un traitement antihypertenseur ou par l'anamnèse d'une hypertension artérielle, combinée à la mesure d'une pression artérielle élevée (systolique >160 mm Hg ou diastolique >100 mm Hg) lors de l'examen préopératoire de l'anesthésiste. Les incidents relevés en cours d'anesthésie ont été définis a priori et sont enregistrés de routine sur la feuille d'anesthésie et reportés dans une base de données centralisée. En raison de la structure des données, des analyses hiérarchiques ont été effectuées incluant des variables individuelles (niveau 1), liées aux groupes d'interventions chirurgicales (niveau 2) et à l'hôpital (niveau 3). Parmi les 124 939 interventions, 27 881 (22%) concernaient des patients connus pour une hypertension artérielle chronique. Au moins un incident est survenu dans 16,8% des interventions (95% Cl 16,6 -17,0%). Chez 7 549 patients, au moins un incident cardio- vasculaire est survenu, soit dans 6% des anesthésies (95% Cl 5.9-6.2%). Le rapport des cotes (odds ratio) moyen ajusté pour les incidents cardio-vasculaires chez les patients hypertendus était de 1.38 (95% Cl 1.27-1.49), indiquant une augmentation du risque chez les patients hypertendus. Cependant, l'hypertension n'était pas liée à un risque augmenté de survenue d'un autre incident. Les rapports de cotes ajustés de la survenue d'une complication cardiovasculaire en présence d'une hypertension artérielle variaient selon les hôpitaux entre 0.41 et 2.25. Ainsi, cette étude confirme la présence d'un risque accru de survenue d'une complication cardiovasculaire chez un patient hypertendu lors d'une anesthésie pour chirurgie élective. Il s'agissait le plus souvent d'une arythmie ou d'une perturbation hémodynamique. Cette augmentation du risque proche de 40% a aussi été trouvée dans une revue systématique avec méta-analyse. L'hétérogénéité des institutions -qui persiste même en tenant compte des ajustements pour le type d'intervention chirurgicale et des variables individuelles (case-mix) - suggère des différences de pratique de l'anesthésie selon l'hôpital.
Resumo:
Rapport de synthèse : De nombreuses études sont effectuées sur les antidépresseurs avant leur mise sur le marché, puis des règles précises sont établies pour leur prescription dans des indications délimitées. Leur utilisation dans des indications «off-label » (hors indication officiellement admise) manque souvent de validation par des bases de données scientifiques et leur prescription se base le plus souvent sur un consensus proposé par des experts. Le but du présent travail a été d'étudier les habitudes de prescription de psychiatres d'hôpitaux en ce qui concerne les antidépresseurs, en comparant des patients traités pour une dépression et des troubles anxieux avec des patients recevant un traitement «off-label ». Pour cette étude, les données d'utilisation de médicaments sont celles recueillies lors de 6 jours de référence, entre avril 1999 et novembre 2001, à l'hôpital psychiatrique de Lausanne (Suisse) comprenant 98 lits. La prescription de médicaments chez 174 patients a été prise en compte. Tandis que le diagnostic n'influençait pas le choix entre des nouveaux et anciens antidépresseurs, les patients présentant un trouble anxieux avaient un risque 4.5 fois (p < 0.05) plus élevé et les patients présentant un autre diagnostic 8 fois plus élevé de recevoir une comédication antipsychotique, en comparaison avec des patients dont le diagnostic primaire était un trouble dépressif. De plus, les patients recevant comme comédication un hypnotique non-benzodiazépine avaient moins de risque que l'on prescrive un ancien antidépresseur (p < 0.05). Alors que les patients avec un trouble anxieux et ceux souffrant d'une dépression majeure recevaient un antidépresseur à des doses comparables, les patients répondant à une indication off-label étaient de préférence traités avec des doses plus faibles. Les résultats de cette étude suggèrent que les psychiatres d'hôpitaux développent des préférences en ce qui concerne le choix de la classe d'antidépresseurs, et qu'ils les utilisent alors aussi bien dans des indications reconnues que non-reconnues. Puis ils semblent adapter la dose et la comédication en tenant compte du diagnostic, ce qui confirme l'hypothèse initiale de l'étude,
Resumo:
L'épuisement des énergies fossiles est un thème d'actualité dont les prémices datent, selon l'opinion courante, des années 1970 et du premier choc pétrolier. En réalité, c'est une préoccupation plus ancienne, intimement liée à l'ère industrielle. Dans la deuxième partie du XIXème siècle, les économistes se sont penchés sur la question de l'épuisement des minerais, 'objet non identifié' jusqu'alors et nécessitant la mise sur pied de nouveaux outils d'analyse (effet-rebond chez Jevons, rente minière chez Marshall-Einaudi notamment). Avec le progrès des techniques et l'apparition de nouvelles énergies (pétrole, hydro-électricité), leurs craintes de déclin industriel se sont progressivement dissipées dans les années 1910 et 1920. Mais ces évolutions tenant à l'histoire des faits ne sont pas les seules à considérer. Des facteurs internes à la discipline économique, comme l'émergence du marginalisme dans les années 1870 et de la théorie de l'épargne et du capital dans les années 1890, ont aussi changé le regard des économistes sur la question de l'épuisement des ressources. Pourquoi ? Comment ? Quels enseignements peut-on en tirer pour les défis environnementaux d'aujourd'hui ? Voilà les questions qui sont traitées dans ce travail de thèse.
Resumo:
Aujourd'hui plus que jamais, le développement économique ne peut se faire au détriment de notre environnement naturel. Dès lors se pose la question de savoir comment parvenir à maintenir la compétitivité d'une économie, tout en tenant compte de l'impact qu'elle a sur révolution du cadre naturel. La présente recherche propose d'investiguer sur la question en se penchant sur les politiques publiques de promotion économique, et plus spécifiquement sur la politique régionale. Faut-il maintenir la confiance dans les courants néoclassiques, comme le laisse supposer la situation actuelle, renforcer la position d'une économie s'inscrivant au sein d'un cadre socio-environnemental ou encore repenser notre mode de fonctionnement économique quant à son développement ? Dans le cas présent, la politique régionale suisse est évaluée à la lumière de trois stratégies de développement économique. D'une part, il y a l'économie fondée sur la connaissance. Cette dernière est à la base de la philosophie actuelle en matière de politique régionale. Ensuite, il y a l'écologie industrielle, qui pour sa part fait la promesse d'un développement économique éco-compatible. Enfin, la troisième stratégie est celle de l'économie de fonctionnalité, qui propose de maximiser l'efficience d'une unité de matière première en limitant notamment la notion de propriété. Au travers d'une grille d'analyse construite sur le modèle des géographies de la grandeur, les trois stratégies sont confrontées aux objectifs de la nouvelle politique régionale suisse (NPR) ainsi qu'à ses modalités de mise en oeuvre. Il en ressort qu'en l'état actuel, la stratégie misant sur l'économie de la connaissance est la plus à même de relever le défi d'un développement économique durable. Toutefois, moyennant adaptations, les autres stratégies pourraient également se révéler être pertinentes. On constate notamment que les éléments clés sont ici l'innovation, ainsi que les dimensions spatiale et temporelle des stratégies. Nous recommandons dès lors d'adopter une approche territorialisée du développement économique, selon une logique de projet au sens de Boltanski & Chiapello. A notre sens, seules les propositions à même de fédérer les acteurs et disposant d'une vision intégrée du développement ont une chance de permettre un développement économique en harmonie avec notre cadre environnemental. - Today more than ever, economic development can't go ahead without consideration for our natural environment. This lays us with the question of how to maintain the competitiveness of an economy, and at the same time to manage the impact of it on the natural frame. This research aims to investigate this question through public policies fostering economy, more specifically through the regional policy. Must one trust the neo-classical way, as the actual situation let's think about it, reinforce the position of an economy within a socio- environmental frame or moreover reinvent our economical modus regarding development? In this case, an assessment of the Swiss regional policy is lead through three strategies of economic development. First, there is the knowledge economy. It is the core concept of the actual philosophy regarding regional policy. Second, there is the industrial ecology which aims to promote an eco-compatible economic development. Last, there is the functional economy, which proposes to maximize the efficiency of every used unit of natural resources by limiting in particular the notion of propriety. Through an analytic frame built on the model of geographies of greatness (géographies de la grandeuή, the three strategies are confronted to the objectives of the Swiss new regional policy (NRP) as well as its implementation. It turns out that actually, the strategy laying on the knowledge economy happens to be the best solution in order to promote a sustainable economic development. Nevertheless, with few adaptations, the other strategies could be pregnant as well. What we can see is that key- elements are here the innovation, as well as the spatial and temporal dimensions of these strategies. We recommend therefore to adopt a territorialised approach of economic development, with a project-based logic as meant by Boltanski & Chiapello. We are convinced that only propositions which are able to unit actors, and with an integrated point of view, have a chance to promote economic development in harmony with our environmental frame.
Resumo:
Résumé : La production de nectar assure aux plantes entomophiles un important succès reproducteur. Malgré cela, de nombreuses espèces d'orchidées ne produisent pas de nectar. La majorité de ces orchidées dites trompeuses exploitent simplement l'instinct des pollinisateurs généralistes, qui les pousse à chercher du nectar dans les fleurs. Afin d'optimiser la récolte de nectar, les pollinisateurs apprennent à différencier les fleurs trompeuses des nectarifères, et à concentrer leurs visites sur ces dernières, au détriment des plantes trompeuses. Chez les orchidées non autogames, la reproduction est assurée uniquement par les pollinisateurs. L'apprentissage des pollinisateurs a donc un impact négatif sur la reproduction des orchidées trompeuses. Cependant, les caractéristiques d'une espèce trompeuse et des espèces nectarifères au sein d'une communauté végétale peuvent affecter l'apprentissage et le taux de visite des pollinisateurs aux plantes trompeuses. J'ai réalisé des expériences en milieu naturel et en milieu contrôlé, pour déterminer si les caractéristiques florales, spatiales et temporelles des communautés affectent le taux de visite et le succès reproducteur de plantes trompeuses. Une agrégation spatiale élevée des plantes trompeuses et des plantes nectarifères diminue le succès reproducteur des plantes trompeuses. De plus, les pollinisateurs visitent plus souvent l'espèce trompeuse Iorsque ses fleurs sont de couleur similaire à celles de l'espèce nectarifère. Cet effet bénéfique de la similarité pour la couleur des fleurs s'accentue si les deux espèces sont mélangées et proches spatialement, ou si l'espèce trompeuse fleurit après l'espèce nectarifère. Enfin, le comportement des pollinisateurs n'est pas tout de suite affecté lorsque les caractéristiques de la communauté changent. Les caractéristiques des communautés végétales affectent donc la reproduction des espèces trompeuses. Bien que L'absence de coûts associés à la production de nectar, l'exportation efficace de pollen et la production de graines de qualité dont bénéficient les orchidées trompeuses favorisent Ieur maintien, les caractéristiques de la communauté peuvent aussi y contribuer. Mon étude fournit donc une explication alternative et complémentaire au maintien des orchidées trompeuses. Je conclus par une discussion des implications possibles de ces résultats sur le maintien et l'évolution des orchidées trompeuses, en tenant compte de la dynamique des caractéristiques des communautés végétales naturelles. Abstract : Despite the importance of producing food to ensure a high reproductive success, many orchid species lack such rewards. The majority of deceptive orchids simply exploit the instinctive food-foraging behaviour of generalist pollinators. This strategy is termed generalized food deception. To optimize their foraging efficiency, pollinators can learn to discriminate deceptive from rewarding flowers and to focus their visits to the rewarding plants, to the disadvantage of the deceptive plants. Because the reproductive success of non-autogamous orchids entirely relies on pollinator visitation rate, pollinator learning decreases the reproductive success of deceptive orchids. However, the characteristics of deceptive and rewarding plants within a community may affect pollinator learning and visitation rate to a deceptive orchid. Therefore, the biological characteristics of natural plant communities may be crucial to the maintenance of generalized food deceptive orchids. My study focused on the floral, spatial and temporal characteristics of plant communities. I used both in and ex sitar experiments to investigate whether these characteristics influence pollinator visitation rates and the reproductive success of deceptive orchids. A high spatial aggregation of both deceptive and rewarding species decreased the reproductive success of the deceptive species. Also, being of similar flower colour to rewarding sympatric species increased pollinator visitation rates to a deceptive species. The beneficial effect of flower colour similarity was even more pronounced when both species were spatially closely mingled or when the deceptive species flowered after the rewarding species. Finally, pollinator behaviour was unaffected in the short term by a change in the characteristics of plant communities, indicating that pollinators need time to learn under new conditions. Thus, the characteristics of plant communities may crucially affect the reproductive success of deceptive orchids. Although the absence of costs associated with nectar production, the efficient pollen export and the high seed quality of deceptive orchids may favour their maintenance, the characteristics of plant communities may also contribute to it. Therefore, my study provides an alternative yet complementary explanation to the maintenance of generalized food deceptive orchids in natural populations. I discuss the possible implications for the maintenance and the evolution of generalized food deceptive orchids with regards to the floral and temporal dynamics of natural plant communities.
Resumo:
Un âge synchrone (partie moyenne de l'Aptien inférieur) de l'ennoiement de la plate-forme Urgonienne helvétique en relation avec l'événement océanique anoxique 1a ("événement Selli"). - La fin de la plate-forme urgonienne, calibrée par analyse des isotopes stables du carbone sur roche totale et par biostratigraphie basée sur les ammonites, est datée du milieu de l'Aptien inférieur (Près de la limite des zones weissi et deshayesi). Cet arrêt, synchrone dans des coupes représentatives du domaine helvétique alpin, est un événement environemental majeur renregistré en France, en Espagne, au Protugal, en Oman, au Mexique et dans le domaine Pacifique. En tenant compte des limites de résolution de la biostatrigraphie et des autres techniques de datation, cet épisode semble également être synchrone à l'échelle globale. Pour beaucoup d'auteurs, la disparition de récifs de coraux et de rudistes corrélée à la fin de la sédimentation urgonienne correspond à la mise en place de conditions anoxiques à l'Aptien inférieur. Celles-ci caractérisent un événement d'importance global: l'événement anoxique OAE 1a.