994 resultados para Trouble de la personnalité limite
Resumo:
Partant de la réputation naïve, colorée et digressive de La Conquête de Constantinople de Robert de Clari, ce mémoire propose une analyse méthodique de ce récit en prose vernaculaire de la quatrième croisade de façon à en circonscrire les moments de continuité et de rupture. En fonction de plusieurs facteurs, dont leurs formules d’introduction et de clôture, leur rapport au temps de la croisade, leur longueur relative ainsi que leur positionnement dans l’économie globale du texte, les épisodes divergents sont identifiés puis analysés en travaillant lestement avec trois caractéristiques fondamentales de la digression plutôt qu’avec une définition nucléaire du concept, ce qui permet de discerner des degrés de digressif et d’offrir un panorama nuancé de l’oeuvre. Afin d’adopter un regard plus large sur le phénomène de la digression, quatre autres récits de croisade sont étudiés, et tous, qu’ils soient écrits en prose ou en vers, en français ou en latin, sont à leur façon coupables de s’être laissés emporter par leur sujet dans des excursus qui trahissent la personnalité et les convictions de leur auteur. Tout comme Clari, Villehardouin, l’auteur de l’Estoire de la guerre sainte, Eudes de Deuil et Albert d’Aix laissent entrevoir leur propre histoire lorsque celle qu’ils mettent à l’écrit s’égare de la droite voie de sa narration. Les digressions contenues dans les récits de croisade constituent ainsi une fenêtre privilégiée sur l’histoire des mentalités du Moyen Âge central, une mine d’informations qui ne peut être adéquatement exploitée que par les efforts conjoints de l’histoire et de la littérature.
Resumo:
L'objectif principal de ce projet était de comprendre et d'identifier les paramètres et conditions influençant la pénétration de microparticules dans la peau afin d'améliorer l'efficacité de l'injecteur sans-aiguille. De toute évidence, les modèles présents dans la littérature ne conviennent pas pour décrire, de façon analytique, les phénomènes qui se produisent lorsque les microparticules pénètrent dans la peau ni même lorsqu'un projectile sphérique est projeté dans un gel. Pour atteindre l'objectif du projet, il a d'abord été nécessaire d'avoir une vue d'ensemble de ce qu'est l'injection sans aiguille et de son fonctionnement ainsi que de connaître les particularités de la peau. Ensuite, l'étude des différents modèles présents dans la littérature, pour l'injection sans aiguille, mais aussi dans le domaine de la balistique a apporté des pistes de réflexion afin de développer le modèle analytique. Face aux imprécisions des paramètres reliés aux microparticules ainsi qu'à la peau et face à l'absence d'outils pour raffiner les paramètres, le modèle a été développé avec un système macroscopique. Ainsi, des projectiles macroscopiques ont été tirés dans des gels transparents afin de visualiser les phénomènes qui se produisent et de suivre la position du projectile dans le gel en temps réel. Ces données ont ensuite été utilisées afin d'établir un système de forces pouvant décrire correctement les forces appliquées sur le projectile et prédire la profondeur maximale atteinte par celui-ci. Des tests d'indentation quasi-statiques et dynamiques ont aussi été effectués sur les gels afin de caractériser leurs propriétés mécaniques et viscoélastiques et d'approfondir la compréhension de leur mécanisme de rupture. Les trois contributions significatives de cette thèse sont le développement d'un modèle analytique de pénétration de projectiles dans des gels, une méthode de caractérisation de la viscosité et de la contrainte ultime à la rupture à de hauts taux de déformation ainsi que l'estimation de la vitesse limite pour qu'un projectile pénètre le gel en fonction des paramètres intrinsèques du projectile et du gel. En ce qui a trait à la peau, le modèle prédit correctement la profondeur finale atteinte par les microparticules ayant un diamètre plus grand ou égal à celui des cellules (pénétration extracellulaire), mais n'est pas valide pour les microparticules ayant un diamètre plus petit que la cellule, car le mécanisme de pénétration est différent (pénétration intracellulaire).
Resumo:
Le théâtre de marionnettes a connu, depuis la fin du XXe siècle, de profondes mutations, tant sur le plan esthétique que sur celui du dispositif dramaturgique. Si en France des expériences plurielles de collaboration entre écrivains et marionnettistes se sont développées, en Italie ont émergé des expérimentations dramatiques de la part des marionnettistes eux-mêmes, auteurs de textes aux qualités littéraires. Au fil des rencontres avec la scène marionnettique, la posture de l’auteur devient « fluide », allant de l’écrivain extérieur répondant à une commande, au dramaturge et au co-créateur des spectacles. Une attention accrue aux enjeux dramaturgiques a renforcé les relations des arts de la marionnette avec le théâtre d’acteurs. En vertu de cette osmose, certaines caractéristiques du régime contemporain de l’écriture pour la scène, comme la « rhapsodisation » des textes mise en évidence par Jean-Pierre Sarrazac et les traits « postdramatiques » décrits par Hans-Thies Lehmann, sont à l’œuvre dans les pièces pour marionnettes écrites depuis les années 1980. La comparaison des créations françaises (par Daniel Lemahieu et François Lazaro, Jean Cagnard et la Cie Arketal, Kossi Efoui et Théâtre Inutile, Dennis Cooper et Gisèle Vienne) et italiennes (par Guido Ceronetti, Giuliano Scabia, Gigio Brunello et Gyula Molnár, Marta Cuscunà, Fabiana Iacozzilli, entre autres) montre comment elles exploitent la marionnette afin d’agencer la parole aux images suscitées par l’objet. Bien que l’on puisse observer un plus grand élan innovateur en France, tandis que les relations avec les différentes traditions régionales restent ancrées en Italie, l’analyse de textes nous apprend que les motifs les plus récurrents sont communs aux deux territoires, en vertu des possibilités de figuration qu’offre la marionnette : la confrontation avec les problèmes actuels et les traumatismes de l’histoire, la plongée dans l’esprit humain, l’imagination de territoires post-anthropocentriques, la rencontre avec le trouble et la mort
Resumo:
Introduction : S'il est des questions qui plongent les juristes et les médecins dans l'embarras, celle de l'information à délivrer au patient, composante de la théorie du consentement éclairé, occupe une place de choix. Depuis plusieurs années, les exigences relatives aux droits des patients, notamment le droit à l'information médicale, ont évolué parallèlement aux progrès vertigineux de la médecine et de la science. Il y a trente ans, ce principe était pratiquement inconnu de notre ordre juridique. En 1979, le Tribunal fédéral se pose formellement la question des limites du devoir d'information incombant au médecin. Soulignons qu'en 1940 déjà, les juges fédéraux avaient abordé l'existence d'un devoir d'information du thérapeute tout en niant son existence dans le cas d'espèce au motif que le patient n'aurait pas renoncé à l'intervention s'il avait été correctement informé du risque normal et minime que celle-ci comportait. Depuis lors, ce principe a été consacré par l'ensemble des législations sanitaires cantonales. La médecine humaine étant de la compétence des cantons, il a fallu attendre 1992 pour voir la création d'une norme constitutionnelle attribuant la première compétence à la Confédération dans le domaine du génie génétique et de la procréation médicalement assistée. La Confédération a ensuite reçu des compétences législatives en matière de médecine de transplantation. Enfin, un futur article 118a Cst permettant à la Confédération de légiférer dans le domaine de la recherche sur l'homme sera prochainement soumis aux votes du peuple et des cantons. Ces nouvelles lois fédérales concrétisent les principes généraux en matière d'information dégagés par le Tribunal fédéral au fil de sa jurisprudence et lui octroient une place importante s'agissant de domaines pointus où l'individu n'est que profane. Ces trente dernières années ont été marquées par un accroissement important des droits des patients corollairement lié à un affaiblissement du pouvoir des médecins. A ce jour, le point d'équilibre ne semble pas être atteint, la tendance étant de pratiquer de la médecine dite défensive, promouvant le consentement éclairé au rôle de protection juridique du thérapeute, oubliant sa fonction première de garantie du libre choix du patient. GUILLOD, dans une thèse faisant autorité en Suisse, ayant pour thème : le consentement éclairé du patient, Autodétermination ou paternalisme ? s'était déjà penché en 1986 sur la problématique de l'information. A cette période, la jurisprudence en la matière était peu importante, le droit fédéral était pratiquement inexistant et le droit cantonal commençait à émerger. Nous avons dès lors décidé de consacrer notre travail de doctorat au devoir d'information du médecin, eu égard au nombre considérable de décisions rendues en la matière et à l'évolution de la législation tant fédérale que cantonale. Pratiquement, cette étude se subdivise en trois parties. La première permettra d'analyser les différents fondements juridiques du devoir d'information. Nous nous proposons de commencer par un aperçu de la théorie des droits de la personnalité avant de l'appliquer au devoir d'information. Puis, nous examinerons le devoir d'information dans les autres domaines du droit, tels que le droit pénal, le droit des contrats, le droit public ou le droit international. De plus, vu l'importance des normes déontologiques dans ce domaine, celles-ci feront l'objet d'une analyse spécifique. Dans une deuxième partie, il s'agira de dessiner les contours de l'information médicale. Nous commencerons par déterminer les parties à cette information avant de déterminer l'étendue et le contenu du devoir incombant au médecin. Puis, nous aborderons successivement la question des modalités de l'information et la problématique du fardeau de la preuve. Ensuite, les limitations et les cas particuliers seront examinés. La suite du travail portera sur l'exigence d'un consentement libre et éclairé en sa qualité de corollaire à l'information. Enfin, nous terminerons par un examen du droit d'accès au dossier médical. La troisième partie consacre spécifiquement le devoir d'information dans les nouvelles lois fédérales médicales (LPMA, LRCS, LAGH, LTO, LSter, LPTh, AP LRH). Dans ce dernier volet, nous nous proposons de commencer par un examen des compétences de la Confédération en médecine humaine, puis nous analyserons ces différentes lois, essentiellement sous trois aspects : leur champ d'application, l'information et le consentement du patient.
Resumo:
(Résumé de l'ouvrage) Le présent recueil d'hommages veut témoigner de l'importance de l'oeuvre théologique de Jean Richard, professeur à la Faculté de théologie et de sciences religieuses de l'Université Laval. Désireux de signifier leur reconnaissance au père Richard, les auteurs de ce livre ont proposé des textes s'inscrivant dans l'un ou l'autre de ses champs de recherche privilégiés. Le tableau des contributeurs à ces mélanges regroupe des théologiens de tous les âges, hommes et femmes, provenant du Canada, mais aussi des États-Unis et de l'Europe, de langue française, anglaise ou allemande, de confession catholique ou protestante, oeuvrant dans des champs disciplinaires aussi divers que la théologie systématique, la théologie fondamentale, l'éthique théologique, l'exégèse ou encore la philosophie. Cette diversité est révélatrice de la personnalité théologique du père Richard, du caractère international de son réseau d'amitiés et de recherche et de l'ampleur de son influence. Elle témoigne aussi de l'audace d'une oeuvre qui, entreprise dans les années 1960, a dès le départ relevé le défi de l'aggiornamento que venait de poser en toute urgence son Église et qui a très vite conduit son auteur « aux confins », pour reprendre - et pour cause - une expression de son mentor Paul Tillich qui lui sied à merveille. Les contributions réunies dans ce volume ne résultent pas d'un plan concerté. D'autant plus significatifs sont les recoupements thématiques qu'on y observe, qui, par un hasard seulement apparent, restituent les principaux axes de la production théologique du père Jean Richard. L'ouverture au présent et a ses problématiques propres, ainsi que les défis conceptuels par là posés à l'effort théologique constituent les deux constantes de ces contributions, comme de l'oeuvre qui les a inspirées.
Resumo:
Résumé : Depuis la fin de la perestroïka s'est mis en place en Russie un discours identitaire qui, en linguistique, prend des formes extrêmes, reposant sur un strict déterminisme de la pensée par la langue. Les organismes de financement de la recherche scientifique soutiennent des projets qui étudient le rapport entre la grammaire russe et le « caractère national russe ». Des objets nouveaux apparaissent : « l'image linguistique russe du monde », « la personnalité linguistique », la « linguoculturologie ». Cet ensemble discursif construit dans l'imaginaire une identité collective rassurante, reposant sur l'idée que 1) tous les gens qui parlent la même langue pensent de la même façon; 2) les langues, donc les pensées collectives, sont imperméables entre elles, et donc intraduisibles. Cette tendance néo-humboldtienne dans la linguistique russe actuelle se déploie en toute méconnaissance de ses origines historiques : le Romantisme allemand dans son opposition à la philosophie des Lumières, le positivisme évolutionnisme d'Auguste Comte et la linguistique déterministe de l'Allemagne des années 1930.AbstractSince the end of perestroika, in linguistics in Russia, a new form of discourse has taken place, which stresses a very tight determinism of thought by language. The funding organizations of scientific research back up projects studying the relationship between Russiangrammar and the « Russian national character ». New objects of knowledge come to light : « the Russian linguistic image of the world », « linguistic personnality », « culturology ». This kind of discourse builds up an imaginary comforting collective identity, which relies on the principle that 1) all the people who speak the same language think the same way; 2) languages, hence collective kinds of thought, are hermetically closed to each other, and untranslatable. This neo-humboldtian trend in contemporary Russian linguistics has no knowledge of its historical origins : German Romanticism in its Anti-Enlightenment trend, evolutionnist positivism of Auguste Comte, and deterministic linguistics in Germany in the 1930s.
Resumo:
Thesenhafte Zusammenfassung 1. Geschäftsmethoden ist urheberrechtlicher Schutz zu versagen. Vordergründig lässt sich die Schutzversagung mit dem Fehlen von Schutzvoraussetzungen er¬klären. Soweit es an einem Bezug zu Literatur, Wissenschaft oder Kunst man¬gelt, ist Schutz nach § 1 UrhG zu verwehren. Im Übrigen scheitert ein Schutz von Geschäftsmethoden in aller Regel an § 2 Abs. 2 UrhG. Angesichts ihrer Ausrichtung am Effizienzziel orientieren sich Geschäftsmethoden an Vorgege¬benem bzw. an Zweckmäßigkeitsüberlegungen, so dass Individualität ausschei¬det. Hintergrund sind jedoch Legitimierungsüberlegungen: Schutz ist mit Blick auf das Interesse der Allgemeinheit zu versagen, das auf ein Freibleiben von Geschäftsmethoden gerichtet ist und das Interesse des Entwicklers einer Geschäftsmethode an Ausschließlichkeit überwiegt. 2. Die Berücksichtigung der Interessen der Allgemeinheit ist durch Art. 14 Abs. 2 verfassungsrechtlich geboten. Im Urheberrechtsgesetz drückt sie sich vor allem in den Schrankenregelungen der §§ 44a ff. UrhG aus. Die Allgemeininteressen sind darüber hinaus auch auf der Ebene der Entstehung des Rechts zu berück¬sichtigen. Bei der Ermittlung der Interessen der Allgemeinheit sind auch öko¬nomische Überlegungen anzustellen und die wettbewerbsmäßigen Auswirkun¬gen eines Sonderrechtsschutzes zu berücksichtigen. 3. Im Bereich des urheberrechtlichen Datenbankschutzes konnte der Schutz von Geschäftsmethoden hinsichtlich der Auswahl oder Anordnung von Daten bisher durch das Erfordernis einer besonderen Gestaltungshöhe im Rahmen der Schutzvoraussetzung der Individualität verhindert werden. 4. Nach der Umsetzung der Datenbankrichtlinie kommt es infolge der Absenkung der Gestaltungshi5he hin zu einer einfachen Individualität sowie durch die Ein¬beziehung des konzeptionellen Modells in den urheberrechtlichen Schutzbereich vermehrt zu einem indirekten und direkten Schutz von Methoden. Das stellt einen Verstoß gegen die in Art. 9 Abs. 2 TRIPs statuierte Schutzfreiheit von Methoden dar. Auch wenn die Frage der unmittelbaren Anwendbarkeit dieser Norm noch nicht abschließend geklärt ist, hat das deutsche Urheberrechtsgesetz sie doch insofern zu berücksichtigen, als eine konventionsfreundliche Auslegung des Urheberrechtsgesetzes geboten ist. 5. Die bloße "Implementierung" von Geschäftsmethoden in Datenbanken darf nicht zum Schutz eines Gegenstandes führen, dem der Schutz an sich versagt ist. 6. Im Rahmen des Datenbankschutzes eine Monopolisierung von Methoden zuzulassen ist auch im Hinblick auf Art. 3 GG nicht unproblematisch. Denn Geschäftsmethoden, die anderen Werkarten zugrunde liegen, ist dieser Schutz weiterhin versagt, ohne dass ein sachlicher Grund für eine solche Differenzierung erkennbar wäre. 7. Überdies kann sich die Monopolisierung von Auswahl- und Anordnungsmethoden auch negativ auf die Informationsfreiheit auswirken. Es kann faktisch zu Monopolen an den in der Datenbank enthaltenen Informationen kommen. 8. Der Monopolisierung von Geschäftsmethoden zur Auswahl oder Anordnung von Daten ist daher entgegenzutreten. 9. Lösungen, die erst auf der Rechtsfolgenseite ansetzen, indem sie solche Methoden zwar als schutzbegründend ansehen, den Schutzumfang aber beschränken, sind abzulehnen. Sie durchbrechen den axiomatischen Zusammenhang zwischen Schutzbegründung und -umfang und führen dadurch zu willkürlichen Ergebnissen. Auch aus Anreizgesichtspunkten können sie nicht überzeugen. 10. Schutz ist bereits auf Tatbestandsebene zu versagen. 11. Die Schutzfreiheit von Geschäftsmethoden im Bereich des Datenbankschutzes kann dabei nicht durch eine Rückkehr zum Erfordernis einer besonderen Gestaltungshöhe erreicht werden. Dem steht der Wortlaut des Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") entgegen. Abgesehen davon ist das Individualitätskriterium auch nicht das geeignete Mittel, die Schutzfreiheit von Geschäftsmethoden zu gewährleisten: Zum einen erweist es sich als anfällig für Eingriffe seitens des Europäischen Gesetzgebers. Zum anderen kann es - da es an die sich im Werk ausdrückende Persönlichkeit des Urhebers anknüpft - insoweit nicht weiterhelfen, als Schutz nicht mangels Eigenpersönlichkeit, sondern aufgrund fehlender Legitimierbarkeit nach einer Interessenabwägung versagt wird. 12. Die Schutzfreiheit von Methoden sollte daher unabhängig von den Schutzvoraussetzungen, namentlich der Individualität, statuiert werden. 13. De lege lata kann das durch die Einführung eines ungeschriebenen negativen Tatbestandmerkmals geschehen. Dafür spricht die Regelung des § 69a Abs. 2 S. 2 UrhG, die für Computerprogramme die Schutzfreiheit von Ideen statuiert. Ein Verstoß gegen Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") kann einem solchen Tatbestandsmerkmal nicht entgegengehalten werden. Denn mit dem Ausschluss anderer Kriterien wollte der Europäische Gesetzgeber nur dem Erfordernis einer besonderen Gestaltungshöhe Einhalt gebieten, nicht aber die Tür für einen Methodenschutz öffnen. Ein dahingehender Wille darf ihm mit Blick auf Art. 9 Abs. 2 TRIPs auch nicht unterstellt werden. Die Schutzfreiheit sollte jedoch - anders als bei § 69a Abs. 2 S. 2 UrhG - schon auf Tatbestandsebene verankert werden. Ein solches Tatbestandsmerkmal könnte lauten: "Der Auswahl oder Anordnung zugrundeliegende abstrakte Methoden sowie solche konkreten Methoden, die sich an Vorgegebenem oder Zweckmäßigkeitsüberlegungen orientieren, können einen Schutz nach dieser Vorschrift nicht begründen." 14. Aus Gründen der Rechtsklarheit sollte de lege ferenda - wie im Patentrecht - die Schutzfreiheit von Geschäftsmethoden ausdrücklich und allgemein im Urheberrechtsgesetz festgeschrieben werden. Dafür sollte § 2 UrhG ein entsprechender Absatz 3 angefügt werden. Er könnte lauten: "Geschäftliche Methoden können einen Schutz nach diesem Gesetz nicht begründen 15. Soweit Datenbanken urheberrechtlicher Schutz mit Blick auf die Schutzfreiheit von Geschäftsmethoden versagt werden muss, verbleibt jedoch die Möglichkeit eines Schutzes nach den §§ 87a ff. UrhG. Dieser Schutz wird allein aufgrund einer wesentlichen Investition gewahrt. Die wirtschaftlich wertvollen auf Vollständigkeit angelegten Datenbanken werden dem sui-generis-Schutz regelmäßig unterfallen, so dass ausreichende Anreize zur Schaffung von Faktendatenbanken bestehen. Auch auf internationaler Ebene scheint dieses zweigleisige Sys¬tem Anklang zu finden, wie Reformarbeiten zur Einführung eines sui-generis-Schutzes für Datenbanken im Rahmen der WIPO belegen. Résumé sous forme de thèses 1. Une protection juridique des méthodes commerciales au sein du droit d'auteur doit être refusée. Au premier plan, le refus de protection peut être expliqué par un manque de conditions. S'il n'y a pas de référence dans la littérature, les sciences ou les arts, une protection doit être rejetée selon l'art. 1 de la législation allemande sur le droit d'auteur. D'ailleurs, une protection des méthodes commerciales sera interrompue en toute règle à cause de l'art. 2 al. 2 de la législation sur le droit d'auteur. Comme elles poursuivent l'objectif de l'efficacité, les méthodes commerciales se réfèrent à des faits donnés et/ou à des considérations d'utilité ce qui exclut l'individualité. En arrière-plan, cependant, il y a des considérations de légitimité. La protection doit être rejetée étant donné l'intérêt du public, qui est orienté vers un manque de protection des méthodes commerciales. Cet intérêt du public est prépondérant l'intérêt du fabricant, qui est dirigé vers une exclusivité sur la méthode commerciale. 2. La prise en considération des intérêts du public est imposée par l'art. 14 al. 2 de la Constitution allemande. Dans la loi sur le droit d'auteur, elle s'exprime avant tout dans les règlements restrictifs des art. 44a et suivants. Les intérêts du public doivent d'ailleurs être considérés au niveau de la formation du droit. En évaluant les intérêts du public, il est utile de considérer aussi les conséquences économiques et celles d'une protection particulière du droit d'auteur au niveau de la concurrence. 3. Dans le domaine de la protection des bases de données fondé dans le droit d'auteur, une protection des méthodes commerciales a pu été empêchée jusqu'à présent en vue du choix ou de la disposition de données par l'exigence d'un niveau d'originalité particulier dans le cadre des conditions de protection de l'individualité. 4. La mise en pratique de la directive sur les bases de données a abouti de plus en plus à une protection directe et indirecte des méthodes en conséquence de la réduction des exigences de l'originalité vers une simple individualité ainsi que par l'intégration du modèle conceptionnel dans le champ de protection du droit d'auteur. Cela représente une infraction contre l'exclusion de la protection des méthodes commerciales stipulée dans l'art. 9 al. 2 des Accords ADPIC (aspects des droits de propriété intellectuelle qui touchent au commerce), respectivement TRIPS. Même si la question de l'application directe de cette norme n'est pas finalement clarifiée, la législation allemande sur le droit d'auteur doit la considérer dans la mesure où une interprétation favorable aux conventions de la législation du droit d'auteur est impérative. 5. La simple mise en pratique des méthodes commerciales sur des bases de données ne doit pas aboutir à la protection d'une chose, si cette protection est en effet refusée. 6. En vue de l'art. 3 de la Constitution, il est en plus problématique de permettre une monopolisation des méthodes au sein de la protection de bases de données. Car, des méthodes commerciales qui sont basées sur d'autres types d'oeuvres, n'ont toujours pas droit à cette protection, sans qu'une raison objective pour une telle différenciation soit évidente. 7. En plus, une monopolisation des méthodes pour le choix ou la disposition des données peut amener des conséquences négatives sur la liberté d'information. En effet, cela peut entraîner des monopoles des informations contenues dans la base de données. 8. Une monopolisation des méthodes commerciales pour le choix ou la disposition des données doit donc être rejetée. 9. Des solutions présentées seulement au niveau des effets juridiques en considérant, certes, ces méthodes comme justifiant une protection, mais en même temps limitant l'étendue de la protection, doivent être refusées. Elles rompent le contexte axiomatique entre la justification et l'étendue de la protection et aboutissent ainsi à des résultats arbitraires. L'argument de créer ainsi des stimulants commerciaux n'est pas convaincant non plus. 10. La protection doit être refusée déjà au niveau de l'état de choses. 11. Une exclusion de la protection des méthodes commerciales dans le domaine des bases de données ne peut pas être atteinte par un retour à l'exigence d'un niveau d'originalité particulier. Le texte de l'art 3 al. 1 p. 2 de la directive sur les bases de données s'oppose à cela (« aucun autre critère »). A part cela, le critère de l'individualité n'est pas non plus le moyen propre pour garantir une exclusion de la protection des méthodes commerciales. D'un côté, ce critère est susceptible d'une intervention par le législateur européen. D'un autre côté, il n'est pas utile, comme il est lié à la personnalité de l'auteur exprimé dans l'oeuvre, dans la mesure où la protection n'est pas refusée pour manque d'individualité mais pour manque de légitimité constaté après une évaluation des intérêts. 12. L'exclusion de la protection des méthodes devra donc être stipulée indépendamment des conditions de protection, à savoir l'individualité. 13. De lege lata cela pourra se faire par l'introduction d'un élément constitutif négatif non écrit. Cette approche est supportée par le règlement dans l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur qui stipule l'exclusion de la protection des idées pour des programmes d'ordinateur. Un tel élément constitutif ne représente pas d'infraction à l'art. 3 al. 1 p. 2 de la directive sur les bases de données (« aucun autre critère »). En excluant d'autres critères, le législateur européen n'a voulu qu'éviter l'exigence d'un niveau d'originalité particulier et non pas ouvrir la porte à une protection des méthodes. En vue de l'art. 9 al. 2 des Accords TRIPs, il ne faut pas prêter une telle intention au législateur européen. Cependant, l'exclusion de la protection devrait - autre que dans le cas de l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur - être ancrée déjà au niveau de l'état de choses. Un tel élément constitutif pourrait s'énoncer comme suit : « Des méthodes abstraites se référant au choix ou à la disposition de données ainsi que des méthodes concrètes s'orientant à des faits donnés ou à des considérations d'utilité ne peuvent pas justifier une protection selon ce règlement. » 14. Pour assurer une clarté du droit, une exclusion de la protection des méthodes commerciales devrait de lege ferenda - comme dans la législation sur les brevets - être stipulée expressément et généralement dans la législation sur le droit d'auteur. Un troisième alinéa correspondant devrait être ajouté. Il pourrait s'énoncer comme suit : « Des méthodes commerciales ne peuvent pas justifier une protection selon cette loi ». 15. S'il faut refuser aux bases de données une protection au sein du droit d'auteur en vue de l'exclusion de la protection pour des méthodes commerciales, il est quand même possible d'accorder une protection selon les articles 87a et suivants de la législation allemande sur le droit d'auteur. Cette protection est uniquement accordée en cas d'un investissement substantiel. Les bases de données ayant une grande importance économique et s'orientant vers l'intégralité seront régulièrement soumises à la protection sui generis de sorte qu'il y ait de suffisants stimulants pour la fabrication de bases de données de faits. Ce système à double voie semble également rencontrer de l'intérêt au niveau international, comme le prouvent des travaux de réforme pour l'introduction d'une protection sui generis pour des bases de données au sein de l'OMPI.
Resumo:
RESUMÉ Objectifs de la recherche: Depuis quelques années, l'utilisation de l'écologie dans le marketing a connu un essor considérable, aussi bien dans le monde académique que dans la pratique. De nos jours, la notion de label suscite un vif intérêt auprès des entreprises désireuses de promouvoir des produits "verts". Le principe de l'écolabellisation consiste à fournir aux consommateurs, en plus du prix, un nouvel élément de comparaison des produits. Les écolabels sont considérés comme l'un des meilleurs outils pour informer le consommateur, d'une manière claire et compréhensible, de l'impact du produit sur l'environnement. Nous nous intéressons, dans le cadre de notre travail, à l'étude du comportement d'achat des produits écolabellisés. En dépit de leur popularité croissante, les études académiques portant sur les labels écologiques sont relativement rares et de nombreuses problématiques demeurent en suspens. L'étude du comportement d'achat - au sens large - mérite notamment d'être approfondie. Notre recherche a plusieurs volets. Premièrement, nous étudions l'impact des valeurs, de l'implication vis-à-vis de l'écologie, du scepticisme, de la compréhension du label et de la connaissance de l'écologie sur le comportement d'achat de produits écolabellisés. Ensuite, nous testons la cohérence entre comportements écologiques en introduisant un comportement post- achat (le triage des déchets ménagers). Théories sous-jacentes: Notre étude repose sur différents apports académiques relatifs au comportement du consommateur "vert" mais également sur des concepts issus de la psychologie et de la sociologie. Nous présentons d'abord la littérature portant sur la caractérisation du consommateur "vert" (Webster, 1975; Arbuthnot, 1977; Van Liere et Dunlap, 1981; Balderjahn, 1988; Antil, 1984; Grunert et Juhl, 1995; Roberts, 1996). Nous abordons ensuite les études portant sur les valeurs (Schwartz, 1992; 1994), l'implication (Zaichkowsy, 1994), le scepticisme (Gray-Lee, Scammon et Mayer, 1994; Mohr et al., 1998), la compréhension des écolabels (van Dam et Reuvekamp, 1995; Thogersen, 2000) et la connaissance de l'écologie (Maloney et al., 1973, 1975; Arbuthnot, 1977; Pickett et al., 1993). Ces variables nous semblent être les plus à même d'influencer le comportement d'achat de produits écolabellisés. Enfin, sur la base des travaux de Valette-Florence et Roehrich (1993), nous développons un modèle de causalité, centré sur la relation entre les valeurs, l'implication et le comportement. Hypothèses de recherche et opérationnalisation des variables: Nous développons 16 hypothèses de recherche dont 12 portent sur les rapports de causalité entre construits. Par ailleurs, pour mieux comprendre la personnalité du consommateur de produits écolabellisés, nous distinguons les variables reflétant un intérêt collectif (altruisme) de celles reflétant un intérêt individuel (égocentrisme). La mesure des différents construits reposent sur la liste de Schwartz (1992, 1994) pour les valeurs, l'échelle d'implication de Zaichkowsy (1994) pour la publicité, l'échelle développée par Mohs et al. (1998) pour mesurer le scepticisme et une liste de questions portant sur l'écologie (Diekmann, 1996) pour tester le niveau de connaissance. Les comportements d'achat et post-achat sont mesurés respectivement à l'aide de questions relatives à la fréquence d'achat de produits écolabellisés et du triage des déchets ménagers. Collecte des données: Le recueil des données s'effectue par sondage, en ayant recours à des questionnaires auto-administrés. L'échantillon comprend de 368 étudiants provenant de diverses facultés de sciences humaines de Suisse Romande. Analyse des données et interprétation des résultats: Notre étude porte sur le comportement d'achat de trois labels écologiques et sur le triage de 7 déchets ménagers. Les différentes analyses montrent que certaines valeurs ont un impact sur l'implication et que l'implication a une influence positive sur le comportement d'achat et post-achat. Par ailleurs, nous montrons que l'implication sert de variable médiatrice entre les valeurs et le comportement. De plus, la compréhension de l'écolabel influence de manière positive l'achat de produits écolabellisés, la connaissance de l'écologie a une influence positive sur le comportement post-achat et le scepticisme vis-à-vis de l'utilité du triage des déchets ménagers influence négativement le comportement de triage. Implications managériales: Les résultats obtenus suggèrent qu'outre la valeur "protection de l'environnement", d'autres valeurs comme "la stimulation" ou encore "l'accomplissement" influencent de manière significative l'implication vis-à-vis de l'écologie qui à son tour influence l'achat de produits écolabellisés. Le manager doit donc tenir compte du fait que le consommateur est impliqué dans l'écologie. Ensuite, la compréhension du label joue un rôle prépondérant dans l'achat. De plus, le consommateur ne semble pas être sceptique par rapport aux informations fournies par les écolabels et le niveau de connaissance de l'écologie n'affecte pas son comportement. Enfin, le consommateur semble agir de manière cohérente en achetant différents produits écolabellisés. Apports, limites et voies de recherche: Notre étude contribue à l'enrichissement de la recherche sur le comportement du consommateur dans un contexte écologique à plusieurs égards, notamment par l'étude de la relation entre les valeurs, l'implication et le comportement. Néanmoins, la portée de notre recherche est naturellement restreinte en raison du nombre limité de cas étudiés, soit 3 labels écologiques relativement peu connus de notre échantillon. Il serait utile de répéter l'étude en utilisant des labels plus populaires. Par ailleurs, nous avons eu recours à des échelles développées dans des contextes quelque peu différents. En particulier, une échelle d'implication devrait être développée spécifiquement pour le contexte écologique.
Resumo:
INTRODUCTION : L'affection, et son contraire l'aversion, se manifestent à chaque instant de l'existence. Que ce soit au travers de notre relation avec les membres de notre entourage, les perceptions sonores, visuelles, olfactives qui nous saisissent à tout instant, il est constamment demandé à notre personnalité d'apprécier, de choisir, de rejeter en fonction de nos penchants, sans que ce choix soit nécessairement explicable ou justifiable par des arguments que chacun pourrait comprendre. L'affection, en tant qu'émanation de la personnalité, est-elle juridiquement protégée ? La question semble saugrenue mais il suffit de penser à la protection de la relation avec ses proches que la jurisprudence a bâtie sur la base de l'article 28 CC pour se rendre compte que l'affection est à l'évidence protégée en tant que composante de la personnalité. Mais où s'arrête-t-elle ? S'il est acquis qu'elle protège une relation entre deux êtres, peut-elle porter sur un objet ayant appartenu à un proche, par exemple une montre héritée d'un parent décédé ? Une réaction instinctive nous incite à répondre par l'affirmative; nous entendons cependant démontrer que cette protection trouve aussi des fondements juridiques, et qu'elle a des conséquences légales; ainsi en va-t-il si la montre est endommagée par un tiers : doit-on alors se limiter au remboursement de la valeur vénale, en compensant uniquement le dommage matériel, ou le titulaire du droit à l'affection peut-il réclamer, en sus de la valeur vénale, le dédommagement du tort moral ? Et si la montre est en main d'un tiers, comment aménager le rapport de deux personnes légitimées à invoquer un lien sur un objet, l'une en vertu de son droit de propriété, l'autre en vertu de son sentiment affectif ? La protection ne s'arrête certainement pas aux objets qui rappellent le souvenir d'un être proche. D'autres objets, tels un arbre planté à sa naissance, un objet qui matérialise un événement personnel important, sont aussi susceptibles d'être l'objet d'un lien affectif. Bien qu'ils n'aient pas, en raison de l'absence de lien préalable avec un être physique, de substrat duquel tirer la justification juridique de la protection, nous démontrerons que ce lien affectif est également protégé. Et, enfin, peut-on, à notre époque, parler d'affection sans évoquer les animaux ? Quelles sont les règles applicables au statut de l'animal depuis que le législateur a décidé qu'il n'est plus une chose ? Voilà une troisième catégorie de valeurs d'affection qui nous occupera et dont nous étudierons le régime particulier de protection depuis la récente modification du Code civil suisse. L'étude de la protection des valeurs d'affection a ceci de particulier qu'elle était au début du siècle souvent citée dans le catalogue des droits de la personnalité, notamment lorsque les auteurs commentaient ce nouvel article 28 CC que l'on disait si novateur. Cet ouvrage entend déterminer ce qu'il reste aujourd'hui de cette doctrine si prompte à voir dans l'article 28 CC ce qu'il n'est peut-être plus vraiment actuellement, c'est-à-dire un puissant vecteur du développement des conceptions juridiques et de l'évolution de la protection de la personnalité. L'on entend souvent que la tendance sociale est à l'individualisme, à la précarisation des rapports humains et à l'anonymisation de la société. Le renouveau du débat sur la protection des valeurs d'affection, notamment par la modification législative touchant le statut de l'animal, est la manifestation du besoin social de protéger les liens affectifs portant sur un objet, que ce soit une alliance, un arbre planté à sa naissance, ou un animal de compagnie. Après l'analyse des sources de la protection des valeurs d'affection, nous examinerons quelles peuvent être les conséquences légales de cette protection s'agissant de la réparation du tort moral, et au niveau de la résolution de conflits de droit qui peuvent surgir entre le titulaire du droit à la valeur d'affection et le tiers propriétaire. Il s'agira également de déterminer si la récente modification législative sur le statut de l'animal apporte des solutions nouvelles à ces questions.
Resumo:
Cet article présente un état des lieux des recherches menées selon le paradigme de « l'alliance familiale » sur le développement des interactions triadiques mère-père-enfant lors de la transition à la parentalité. Ces recherches ont montré tout d'abord que la qualité des interactions triadiques tend à être stable au cours des deux premières années de vie de l'enfant, et qu'elle peut être anticipée durant la grossesse par l'observation d'interactions dans une simulation de jeu triadique. Ensuite, elles ont montré qu'une altération de ces interactions a une influence sur le développement de l'enfant qui se manifeste tout au long des cinq premières années, tant au niveau affectif que cognitif (par exemple : la capacité d'attention triangulaire lors des premiers mois, ou le développement de la théorie de l'esprit et les difficultés de comportements à cinq ans). Cette influence s'exerce en plus de celle d'autres variables comme la relation d'attachement mère-enfant, ou la personnalité de l'enfant lui-même évaluée selon son tempérament. La triade constitue donc un contexte de développement en soi qui doit être pris en compte dans la prise en charge et l'intervention auprès de jeunes enfants.This paper presents the main results of researches on the development of mother-father-child triadic interactions during the transition to parenthood, according to the « family alliance » model. First, these researches have shown that the quality of triadic interactions tends to be stable through the first two years, and that it can be predicted during pregnancy by observation of a simulated triadic play. Then, they have shown that disturbances in triadic interactions have an impact on several affective and cognitive developmental outcomes for the child throughout the first five years (for example, the triangular attention capacity during the first months, or the development of theory of mind and externalized behaviors at age five). This impact is specific, and triadic interactions exert an influence on the development of the child over and above other variables like the mother-child attachment relationship, or the personality of the child assessed in terms of temperament. The triad constitutes then a context of development per se which has to be taken into account when working clinically with young children.
Resumo:
RÉSUMÉLa thèse présentée ici ambitionne de fournir un panorama de la croyance magicoverbale, autrement dit la croyance que les signes verbaux pourraient posséder un pouvoir surnaturel intrinsèque : souhaits, choses ou événements imaginés, pourraient s'actualiser du simple fait de leur énonciation, qu'elle soit oralisée ou non ; les prénoms pourraient avoir une influence sur la personnalité, voire sur le cours de la destinée de qui les porte.Cette thèse a non seulement une visée descriptive, mais également élucidante. Il s'agira, en effet, d'étudier les représentations d'un pouvoir magique des mots dans le but, non seulement d'en documenter les manifestations, mais également de comprendre en quoi elles pourraient dicter certains comportements ou réactions et avec quelles implications.Qui sont ces personnes paraissant manifester une croyance magicoverbale ? Sont-elles aussi frustes qu'on a tendance à le croire ou s'agit-il simplement d'un préjugé particulièrement tenace ? La représentation magique du langage est-elle homogène ou présente-t-elle des variations ? De quels facteurs dépend-elle ? Quels en sont les mécanismes et les modalités d'apparition ? Autant de questions auxquelles cette thèse se propose de répondre. À cet effet, la présentation du travail est divisée en trois parties : la première porte sur le terrain d'enquête, avec une description de la méthodologie utilisée (chapitre 1) et la présentation des résultats obtenus (chapitre 2). L'analyse et l'interprétation des résultats (chapitre 3) font l'objet de la deuxième partie de la thèse. Quant à la troisième partie, elle rend compte des mécanismes de la croyance magicoverbale (chapitre 4).
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.
Resumo:
La notion d'intersubjectivité est au coeur des débats contemporains dans le champ de la psychologie. L'intersubjectivité traverse en effet les différentes approches de la psychologie, des neurosciences à la psychologie sociale, des perspectives développementales aux approches psychoaffectives de la personnalité, des contextes de l'apprentissage à ceux du soin. Cet ouvrage collectif, premier volume de la collection Actualités psychologiques, se propose de faire le point sur cette notion et d'apporter des pistes actuelles de compréhension aux enjeux de la place de l'autre et de l'altérité dans la construction du sujet. Des chercheurs de renommée internationale, de Suisse et de différents pays européens, apportent ici leur contribution, dans différents domaines de la psychologie, invitant au dialogue entre les modèles théoriques qui sous-tendent la notion d'intersubjectivité et entre les méthodologies qui permettent d'en appréhender la dynamique. Contribution exceptionnelle, cet ouvrage est à destination de tous, psychologues praticiens et professionnels de la relation, chercheurs et étudiants en psychologie ou dans des disciplines connexes. Il permet d'approcher l'intersubjectivité comme une notion tout à la fois familière et complexe, au service de la rencontre de l'autre.