999 resultados para Fil hybride
Resumo:
En els últims anys, la popularitat de les xarxes sensefils (WIFI) ha anat en augment a un ritme incansable. Des de petits aparells instal•lats a les cases amb aquesta tecnologia com a complement dels routers d’accés a internet instal•lats per diverses companyies, fins a empreses fent petits desplegaments per comunicar entre si les seves seus. Al marge d’aquests escenaris, s’ha produït un fenomen social d’acolliment d’aquesta tecnologia a nivell mundial, en forma del que coneixem com a xarxes ciutadanes / xarxes lliures / xarxes socials. Aquestes xarxes han estat possibles gràcies a diverses raons que han fet assequible a col•lectius de persones, tant els aparells com els coneixements necessaris per dur a terme aquestes actuacions. Dintre d’aquest marc, al Bages, concretament a Manresa, es va començar a desenvolupar una d’aquestes xarxes. Les decisions d’aquesta xarxa d’utilitzar exclusivament hardware i software de codi obert, i determinats aspectes tècnics de la xarxa, ha comportat que la xarxa fos incompatible amb algunes de les aplicacions de gestió de xarxes existents desenvolupades per comunicats com gufi.net a Osona. És per això que per garantir el creixement, la supervivència i l’èxit d’aquesta xarxa en el temps, és indispensable poder comptar amb una eina de gestió que s’adigui a les característiques de GuifiBages. L’objectiu principal d’aquest treball és dotar a la xarxa GuifiBages de les eines necessàries per poder gestionar tota la informació referent a l’estructura de la seva xarxa, tant per facilitar l’accés a nous usuaris sense molts coneixements tècnics, com per facilitar nous desplegaments / reparacions / modificacions de la xarxa d’una manera automàtica. Com a conclusió d’aquest treball, podem afirmar que les avantatges que proporciones tecnologies com Plone, faciliten enormement la creació d’aplicacions de gestió de continguts en entorn web. Alhora, l’ús de noves tècniques de programació com AJAX o recursos com els que ofereix Google, permeten desenvolupar aplicacions web que no tenen res a envejar al software tradicional. D’altra banda, voldríem destacar l’ús exclusiu de programari lliure tant en els paquets de software necessaris pel desenvolupament, com en el sistema operatiu i programes dels ordinadors on s’ha dut a terme, demostrant que es poden desenvolupar sistemes de qualitat sense dependre de programari privatiu.
Resumo:
Un dels problemes típics de regulació en el camp de l’automatització industrial és el control de velocitat lineal d’entrada del fil a les bobines, ja que com més gruix acumulem a igual velocitat de rotació de la bobina s’augmenta notablement la velocitat lineal d’entrada del fil, aquest desajust s’ha de poder compensar de forma automàtica per aconseguir una velocitat d’entrada constant. Aquest problema de regulació de velocitats és molt freqüent i de difícil control a la indústria on intervé el bobinat d’algun tipus de material com cablejat, fil, paper, làmines de planxa, tubs, etc... Els dos reptes i objectius principals són, primer, la regulació de la velocitat de rotació de la bobina per aconseguir una velocitat lineal del fil d’entrada, i segon, mitjançant el guiatge de l’alimentació de fil a la bobina, aconseguir un repartiment uniforme de cada capa de fil. El desenvolupament consisteix amb l’automatització i control d’una bobinadora automàtica mitjançant la configuració i programació de PLC’s, servomotors i encoders. Finalment es farà el muntatge pràctic sobre una bancada per verificar i simular el seu correcte funcionament que ha de donar solució a aquests problemes de regulació de velocitats. Com a conclusions finals s’han aconseguit els objectius i una metodologia per fer una regulació de velocitats de rotació per bobines, amb accionaments de servomotors amb polsos, i a nivell de coneixements he aconseguit dominar les aplicacions d’aquest tipus d’accionaments aplicats a construccions mecàniques.
Resumo:
Introduction : Depuis 2005, le « Test FIFA » est utilisé chez les arbitres de football, comme critère de sélection pour monter dans les échelons de l'arbitrage et chaque arbitre base son entraînement dans cet objectif. Ce test a été développé grâce aux nombreux travaux scientifiques, ayant utilisé l'analyse vidéo, afin de quantifier les activités de match des arbitres et analyser leur performance en cours de match. Objectifs : Le but de ce travail a été d'évaluer la performance de l'arbitre, lors d'un match de football, au moyen d'un accéléromètre en raison de sa facilité d'utilisation et en particulier d'évaluer si au cours du match, il existe une éventuelle diminution de la capacité de performance engendrée par la fatigue. Enfin, à la lumière des résultats, nous avons pu discuter du bien fondé du «test par intervalle proposé par la FIFA» comme moyen d'estimation de la capacité physique d'un arbitre. Méthode : Il s'agit d'une étude prospective basée sur une analyse descriptive. Les données ont été récoltées dans des stades de football suisses ≥1ère Ligue, du 01.12.2011 au 01.12.2012. Le groupe étudié était composé de 5 arbitres de football de sexe masculin, dont deux officiant en 1ère Ligue et faisant partie des talents de l'Association Cantonale Vaudoise de Football (ACVF) et trois en Super League et Challenge League. Les 5 arbitres ont été équipés d'un iPhone 3GS®, muni d'une application, capable d'enregistrer les déplacements sur le terrain (arrêt, marche et course). Le traitement des données a été effectué par un programme Matlab®, élaboré par le Laboratoire des Mesures d'Analyse du Mouvement (LMAM) de l'EPFL, tout comme l'application en question. Pour ce travail ont été considérées les phases et les fréquences d'arrêt, de marche et de course tout au long de l'évolution de la partie. Résultats : Durant les 90 minutes du match, la répartition se fait de la manière suivante : 13,74% du temps total où l'accéléromètre ne mesure aucune activité, 33,70% concernent une activité de course alors que le reste, 52,48% est de la marche. Avec l'avancement dans le match, il est constaté une augmentation des phases d'arrêt et une diminution du temps de course. Une intensité d'effort plus importante est observée lors des 15 premières minutes du match (environ 41,7% de course), alors qu'en fin de la partie, il y a une alternance de marche et de course avec des efforts de plus en plus brefs. La détermination de la médiane de durée des différents efforts a montré qu'un épisode de marche ou de course étaient de 5-6 secondes. De plus, les épisodes de marche ou de course étaient rarement >20 secondes. Discussion : Les résultats montrent que l'accéléromètre est un système de mesure facile d'utilisation, permettant un gain de temps dans l'analyse des données pour évaluer la performance sportive. Les principaux résultats de cette étude, ont mis en évidence une diminution de l'intensité des activités physiques de l'arbitre avec l'avancement du match, résultant soit de sa propre fatigue, soit de celle des joueurs dictant le rythme du jeu. Cette diminution se traduit par des déplacements de plus en plus brefs au fil du temps. La mesure de médiane du temps de course et de marche (5-6 sec) correspond à une activité aérobie pour la marche et anaérobie alactique pour la course. Par conséquent, le « test par intervalle » de la FIFA actuel ne nous semble pas adéquat en raison de sa filière énergétique de type anaérobique lactique. Conclusion : Cette étude pilote apporte un nouveau type d'instrumentation efficace et simple, jamais employé auparavant dans l'analyse des activités de match des arbitres de football. Il permet d'explorer des mouvements avec précision au fil du match et apporte un nouvel aspect sur la quantification de performance des arbitres non exploré jusqu'ici. Après analyse de l'ensemble des paramètres, il semble que le test FIFA ne soit pas adapté à la performance exigée par l'arbitrage.
Resumo:
L'article présente les étapes de la mise en place d'une veille bibliographique (ou veille scientifique) thématique effectuée conjointement depuis 2005 par 4 institutions francophones du domaine de la santé au travail : l'INRS (France), l'IRSST (Québec), l'IST (Suisse) et l'UCL (Belgique).La thématique suivie est celle de la surveillance biologique de l'exposition aux produits chimiques en milieu de travail. Les données recueillies et mises en forme par les documentalistes servent aux chercheurs spécialistes du sujet non seulement pour suivre les nouveautés du domaine, mais aussi pour documenter des cours et mettre à jour des guides de surveillance biologique. Les différentes étapes de l'approche méthodologique du projet sont décrites : le choix des bases de données à interroger et la mise au point de la stratégie de recherche, la mise en place d'une procédure de partage des tâches pour toutes les étapes du processus de veille qui se répètent à chaque mise à jour (interrogation, création de bases de données avec le logiciel Reference Manager, mise en forme et indexation des références, création et mise à disposition des partenaires des bases de données consolidées au fil du temps avec tous les articles analysés), les moyens administratifs, humains et techniques d'échange de fichiers et les essais pour élargir la veille à la surveillance de pages Web sélectionnées.Un bilan chiffré des six années de la veille est également donné.L'information récoltée et analysée durant les deux dernières années par les partenaires du projet fera l'objet d'un second article axé sur les principales tendances de la thématique choisie.
Resumo:
RESUMECette recherche empirique porte sur les emplois temporaires subventionnés (ETS) instaurés dans le cadre du chômage et de l'aide sociale en Suisse depuis une dizaine d'années. La mise en place de politiques d'activation dans le cadre de la protection sociale met l'accent sur les liens explicites, souvent réglementaires, qu'entretiennent actuellement la protection sociale, les politiques de l'emploi et le marché du travail dans les pays industrialisés. Ces transformations ont largement contribué au développement d'activités exercées en marge du marché de l'emploi. Dans le cadre du chômage, comme dans celui de l'aide sociale, une mise au travail peut être exigée en contrepartie du versement des indemnités ; en Suisse, on nomme ce procédé l'assignation au travail. L'assignation est le processus par lequel un-e conseiller?ère en placement peut contraindre, sous peine de sanction (suppression des indemnités pour un temps déterminé) une personne au chômage (inscrit-e auprès d'un office régional de placement) à souscrire à une mesure du marché du travail (MMT), particulièrement les ETS.Cette recherche propose une analyse de l'assignation à un programme d'emploi temporaire sous l'éclairage de la sociologie du travail. Elle adopte une perspective compréhensive attentive aux tensions que vivent les individus pris dans une situation de travail hybride et inédite qui les place aux frontières des différentes catégories administratives de chômage, d'inactivité et de population occupée. Partant d'une étude empirique auprès de personnes assignées, cette recherche mène une analyse qualitative des conditions et de l'organisation du travail en ETS, des modalités contractuelles et statutaires des personnes assignées à une activité de travail contrainte et matériellement non reconnue, puisque non salariée. Elle s'attache également à cerner le vécu de l'assignation au travail, ainsi que le sens que les personnes lui attribuent dans leur trajectoire biographique et professionnelle.SUMMARYThis research investigates a specific and new form of labor, namely «temporary subsidized jobs» {emplois temporaires subventionnés, ETS) that have been developed since the late 1990s in Switzerland in the context of unemployment and social assistance benefits. Although ETS are specific to Switzerland, they echo similar «workfare» measures imposed on unemployed and welfare recipients introduced in recent years in almost all industrialized countries. Indeed, the evolution of public policies and the generalization of «active labour-market policies» {politiques d'activation) have become central to social protection in the majority of Western countries and have emerged in parallel to the expansion of work activities situated at the margins of traditional wage- labor.My analysis of the ETS phenomenon is informed by labor sociology and discusses the pertinence of a classical approach in grasping this hybrid and new work situation, which sets individual persons at the border between various administrative categories such as «unemployed», «inactive» and «at work». I investigate in particular the issue of contractual and statutory modalities imposed on persons who have been assigned to a form of activity that is both constraining as well as materially non-recognized (as it remains outside of traditional wage-labor forms). In order to understand ETS conditions and labor organization, my fieldwork consist of interviews of persons who have been assigned to it and observations. I investigate their personal experience, as well as the meaning that these individuals attribute to the ETS experience in the context of their biographical and professional trajectory.
Resumo:
Voici rassemblées en un ouvrage les philosophies, les origines et les filiations du Yoga, plus particulièrement du Raja-Yoga, dans une vision plurielle et chronologique. Le lecteur au fil des textes sélectionnés prend conscience des moyens extraordinaires et exigeants développés par les sages de l'Inde pour répondre aux questions universelles du sens de la vie et de sa finalité. À l'opposé de l'esprit occidental, qui s'appuie sur la dialectique pour explorer le monde, le Yoga se défie du seul intellect, et privilégie l'expérience de soi. Les témoignages et les révélations d'êtres spirituels, tels que Patanjali, Vivekananda ou Ram Chandra, montrent que le chemin de la connaissance passe par soi, le chercheur étant à la fois l'objet de l'expérience, l'observateur et la conscience transformée. S'adressant à chacun de nous dans sa quête de sens et de vérité, le Raja-Yoga est une science, une méthode de réalisation de soi vivante qui, tout en s'inscrivant dans une tradition religieuse et philosophique, reste libre d'évoluer et de répondre aux besoins de l'homme à chaque époque. Ce coffret a eu pour désir de mettre à disposition d'un public occidental la spiritualité de l'Inde vue par elle-même, sous l'angle du Raja-Yoga. L'intérêt porté par des universitaires occidentaux à cette démarche a contribué à mettre en valeur l'apport remarquable des chercheurs indiens, praticiens et érudits, autour d'un sujet sur lequel il n'existait pas d'étude approfondie. Pour la première fois, le Raja-Yoga révèle sa noblesse et son efficacité dans sa dimension de science spirituelle ouverte à tous.
Resumo:
Compte tenu des relations étroites existant entre le pouvoir politique et l'histoire - et plus particulièrement l'enseignement de l'histoire à l'école - , les manuels constituent un objet d'étude privilégié de l'évolution des relations pouvoir/enseignement. Ils fournissent un lieu de médiation privilégié entre les savoirs savants et les savoirs scolaires institutionnels ; ils permettent d'observer les conceptions didactiques préconisées par l'institution scolaire. Si, sous l'égide de l'Etat-nation au 19e siècle, les savoirs savants historiques et les savoirs scolaires étaient entremêlés, les rapports se sont complexifiés durant le 20e siècle en raison notamment de la prise de distance progressive de l'histoire savante à l'égard du pouvoir. Petit à petit, à partir des années 1930, le concept d'histoire- problème, initié par l'école historique des Annales, dépasse l'histoire-récit de l'école historique positiviste (méthodique) du 19e siècle et sa traduction du récit- national au coeur de la leçon d'histoire. Cependant, si après 1945, l'école des Annales, puis la Nouvelle histoire, tendent à s'imposer dans le champ de l'histoire savante francophone, elles se heurtent à une tradition scolaire bien établie et modifient peu et tardivement les curricula, les manuels et les pratiques enseignantes. Progressivement donc, une fracture apparaît entre l'histoire savante et l'histoire scolaire. Dans cette étude, notre travail envisage l'analyse du manuel d'histoire en tant qu'objet hybride. Il est à la fois porteur d'un texte historien, ouvrage de vulgarisation et de référence, ainsi qu'outil pédagogico-didactique. Par ailleurs, le manuel d'histoire a la charge de transmettre des valeurs, car les finalités attribuées par l'autorité politique, via les autorités scolaires, à l'histoire scolaire comportent toujours une dimension forte de formation du futur citoyen. Au texte de départ sont associés des documents textuels ou iconiques, des résumés, des questions regroupées par chapitre, un glossaire ou une chronologie générale. De plus, ce texte est encadré d'un dispositif didactique plus ou moins explicite : préface, numérotation par paragraphe correspondant à la leçon du jour, dates mises en évidence, aide-mémoire et questions. Par ailleurs, les découpages en livres ou en parties peuvent correspondre à des années (ou parties d'années) de programme. Il sera donc également étudié pour les spécificités d'un sous-genre de discours à définir : les manuels - d'histoire - produits (et utilisés) dans le canton de Vaud au 20e siècle. En conséquence, notre travail se propose d'observer et d'analyser les manuels d'histoire vaudois sous deux modalités préférentielles. Premièrement, celle des formes constitutives et évolutives prises par le manuel pour se construire comme un discours légitimé (deuxième partie : écriture et mise en scène de l'histoire). Deuxièmement, celle de la mise en scène d'une histoire à visée pseudo- pédagogique masquant l'intégration du discours de l'autorité politique (troisième partie : comment l'autorité vient au discours). Site internet : http://manuelshistoire.ch
Resumo:
S'inscrivant dans le domaine de l'analyse des relations temporelles dans les textes, la présente étude est consacrée à la notion du futur définie en tant qu'anticipation sur les événements à venir dans le récit. Ainsi, la recherche en question se propose de mettre en lumière les différents mécanismes d'anticipation propres aux récits d'aventures au Moyen Âge. Recourant aux moyens heuristiques existants (les bases de la théorie de la réception telle qu'elle est représentée dans les travaux de Jauss, Eco et Greimas), cette thèse se concentre sur l'étude du prologue de l'oeuvre littéraire dont elle élabore une grille de lecture particulière qui tient compte de la complexité de la notion du futur envisagée aux plans grammatical (formes verbales du futur), rhétorique (la figure de la prolepse) et littéraire (les scénarios et les isotopies). La démarche de la lecture détaillée du prologue adoptée au cours de ce travail s'applique d'abord au Chevalier au Lion de Chrétien de Troyes, texte fondateur du corpus, qui constitue, pour parler avec Philippe Walter, un vrai « drame du temps ». L'étude des mécanismes d'anticipation mis en place dans le prologue se prolonge ensuite dans les chapitres consacrés à Claris et Laris et au Chevalier au Lion de Pierre Sala, deux réécritures du célèbre roman du maître champenois. Datant, respectivement, du XIIIe et du début du XVIe siècle, ces oeuvres permettent de saisir le chemin parcouru par le futur dans son aspect thématique et diachronique, ce qui est particulièrement propice au repérage des critères qui influencent l'attente du lecteur par rapport aux événements à venir au fil des siècles. Ainsi, à côté des moyens d'expression « standards » du futur (scénarios intertextuels et isotopies), la présente recherche fait apparaître d'autres facteurs qui influencent l'anticipation, notamment le procédé de la disputatio, le recours à la satire, la démarche de l'engagement indirect et l'opposition vers/prose. La seconde partie de la thèse qui traite, d'un côté, des récits consacrés à la fée Mélusine de Jean d'Arras et de Coudrette, du Livre du Cuer d'amours espris de René d'Anjou de l'autre, sert à vérifier dans quelle mesure la démarche choisie s'applique à des oeuvres du Moyen Âge tardif qui combinent des éléments empruntés à la tradition antérieure avec des éléments d'autre provenance. L'analyse de Mélusine et du Livre du Cuer conduit à ajouter deux facteurs supplémentaires qui influencent l'attente du lecteur, à savoir la démarche de l'engagement partiel et le recours au genre judiciaire. Cette étude démontre que le traitement du futur est d'un enjeu capital pour lire les textes du Moyen Âge, car il permet au lecteur, dès le prologue, de reconnaître la fin vers laquelle tend le récit et de faire par là- même une lecture enrichie, supérieure à d'autres. Telling the Future in the Middle Ages : from the Prologue to the Narrative. From Chrétien de Troyes ' Chevalier au Lion to Pierre Sala 's Chevalier au Lion. Part of the analyses of the time based relations within the texts, the present study deals with the notion of future characterized as an anticipation of the events to come in the narrative. Therefore, the purpose of this research is to bring to light the various mechanisms of anticipation peculiar to the narratives of adventures in the Middle Ages. Making the use of the existing heuristic instruments (the bases of the theory of the reception as it presents itself in the works by Jauss, Eco and Greimas), this thesis is dedicated to the study of the prologue of the work of fiction by means of a particular key for reading which takes into account the complexity of the notion of future with regard to its grammatical side (future tenses), to its rhetorical side (prolepse) and to its literary side (scenario and isotopy). First of all, the close reading of the prologue used in this work is applied to Chrétien de Troyes's Chevalier au Lion (Lion Knight), the founding text of our literary corpus, which represents, according to Philippe Walter, the real « drama of Time ». Then, the study of the mechanisms of anticipation in the prologue is carried over to the chapters devoted to Claris et Laris and to Pierre Sala's Chevalier au Lion, two romances that rewrite Chrétien de Troyes' famous work. Written, respectively, in the XIIIth and in the beginning of the XVI century, these romances enable the reader to ascertain the changes in the manner of telling the future from the thematic and diachronic point of view : this is particularly convenient to the identification of the criteria which influence the reader's expectations relative to the future events in the course of the centuries. Therefore, next to the « standard » means of expression of future (intertextual scenario and isotopy), the present study reveals other factors which influence the anticipation, in particular the method of the disputatio, the use of the satire, the approach of the indirect commitment and the verse/prose opposition. The second part of the thesis which deals with the narratives concerning the fairy Melusine written by Jean d'Arras and by Coudrette on one hand, with René d'Anjou's Livre du Cuer d'amours espris on the other hand, is used to verify to what extent the chosen approach applies to the works of fiction of the Late Middle Ages that combine the elements from the previous tradition with the elements of other origin. The analysis of Melusine's romances and of the Livre du Cuer brings us to add two new factors which influence the reader's expectations : the approach of the partial commitment, and the use of the legal discourse. This study demonstrates that the manner of telling the future is of the utmost importance to read the texts of the Middle Ages, because it enables the reader to know the end of the story from the very beginning, from the prologue, thus leading to a richer and superior reading.
Resumo:
Les fouilles menées entre 1988 et 1991 sur la parcelle du Clos d'Aubonne, à La Tour-de-Peilz, ont mis au jour 578 tombes contenant les ossements de près de 850 individus. Ces sépultures constituent l'essentiel d'une vaste nécropole qui s'est développée à quelque 500 m au sud-est du vicus romain de Viviscus/Vevey, en bordure de l'ancienne voie qui mène au col du Grand Saint-Bernard. L'analyse détaillée des structures et du mobilier permet de définir trois phases chronologiques, échelonnées entre la deuxième moitié du Ve et la première moitié du IXe siècle. Au fil du temps se manifestent des signes d'une présence burgonde discrète, puis d'influences du monde franc. Plusieurs indices montrent que, dès le VIe siècle, cette nécropole est devenue le lieu d'inhumation de familles importantes. Certaines d'entre elles sont restées attachées à cet espace funéraire jusqu'à l'époque carolingienne, malgré l'absence d'un édifice voué au culte chrétien. Le second volume de la publication réunit des études spécifiques: l'analyse anthropologique des squelettes, comprenant notamment une étude approfondie de l'état de santé de la population, l'étude et le catalogue des monnaies ainsi que le catalogue des découvertes funéraires antérieures aux fouilles de 1988-89. Le catalogue des tombes, illustré de nombreux relevés, et les planches du mobilier complètent ce volume.
Resumo:
The aim of this article is to show the Western centuries-old misogynist tradition from its origins in Greece by analysing a text by the allegorical interpreter of the Bible Philo of Alexandria, his De opifico mundi, which on many occasions is read by him from a Platonic point of view. The accurate analysis of the chapters devoted to the creation of the woman by God proves to what extent it is not possible to understand this text if one does not take into account a Greek philosophical tradition which was already centuries-old.
Resumo:
El objetivo de este artículo es mostrar la secular tradición misógina occidental desde sus orígenes en Grecia, analizando un texto del intérprete alegórico de la Biblia Filón de Alejandría, el De opifico mundi, al cual aplica una lectura claramente platonizante. El análisis minucioso de los capítulos dedicados a la creación divina de la mujer muestra hasta qué punto no es posible entender este texto sin tener en cuenta una tradición filosófica griega ya entonces secular.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
La recherche, faisant l'objet de la présente communication, interroge cette nouvelle répartition des rôles telle qu'elle a été théorisée dans les écrits gestionnaires portant sur la NGP. Nous investiguons donc la véracité de l'affirmation selon laquelle une gestion moderne, efficiente et efficace des affaires publiques implique une séparation plus stricte des sphères politiques et administratives. Autrement dit, est-ce que la mise en oeuvre des réformes managériales au sein des administrations cantonales de Suisse romande change effectivement la nature de la relation entre les hauts fonctionnaires et leurs ministres de tutelle ? Pour apporter un début de réponse à cette question, nous avons décidé de nous approcher de trois cantons romands qui se trouvent dans des dynamiques de réforme administrative d'ampleur différentes. Aussi, notre choix de terrain s'est porté sur le canton du Valais, qui est l'un des plus avancés en matière de NGP, sur le canton de Neuchâtel, qui se trouve dans une dynamique hybride puisque certains services administratifs ont adopté les principes de la contractualisation sur base volontaire et d'autres non, ansi que le canton du Jura qui n'a pas, pour l'instant, opté pour les nouveaux principes et outils de la NGP. La comparaison de ces trois entités, dont les trajectoires de modernisation diffèrent, nous permettra de constater ou non des différences d'appréciation dans la nature des relations politico-administratives des trois cantons. Si l'on se réfère à la description idéale-typique proposée par les tenants de la NGP, nous devrions constater d'importantes divergences. Enfin, il est à relever que cette recherche est pionnière en Suisse puisqu'aucune autre étude à ce jour ne s'est attelée à décrire ces changements relationnels, comme cela a été le cas dans la plupart des pays de l'OCDE.
Resumo:
RESUME L'étude de la médecine à la Faculté de l'Université de Lausanne est un cursus de six ans. Depuis la réforme générale du curriculum en octobre 1995, le programme de la deuxième année consacrée à l'étude de l'être humain sain a été transformé. L'enseignement intégré par système ou organe a été introduit en remplaçant l'enseignement par discipline. Parallèlement, un système d'évaluation de l'enseignement par les étudiants a été proposé. Il a été amélioré au fil des années et depuis l'année académique 1998-99, l'évaluation est devenue systémique et régulière. Notre étude présente et compare les résultats des évaluations de l'enseignement et des enseignants de neuf cours intégrés dispensés en deuxième année durant deux années académiques (1998-99 et 1999-2000). Une forte corrélation entre les résultats des deux années consécutives ainsi qu'une importante disparité des estimations à l'intérieure de chacune de deux années ont été observées. Ceci démontre un engagement sérieux des étudiants dans le processus d'évaluation, révèle la pertinence de leur analyse et leur bonne capacité de discernement. L'analyse de nos résultats montre que les évaluations effectuées par les étudiants peuvent constituer une source fiable d'informations et contribuer à l'amélioration du processus d'enseignement.
Resumo:
Depuis 2004, le département de psychiatrie du centre hospitalier universitaire vaudois (CHUV) offre une prise en charge spécifique pour les patients présentant un premier épisode psychotique. La rupture de soins très fréquente, dès la sortie de l'hôpital, le mauvais pronostic à long terme en fonction de la durée de la psychose non traitée et enfin le taux élevé de tentatives de suicide avant une première hospitalisation se sont avérés suffisamment inquiétants et significatifs pour qu'une prise en charge de ce type puisse obtenir un soutien décisif. Dans l'article qui suit, nous nous proposons de décrire le programme Traitement et intervention précoces dans les troubles psychotiques (TIPP) en mettant en lumière la notion centrale de cette offre de soins, à savoir le rôle du case management. Il s'agira de rappeler brièvement les connaissances actuelles sur les psychoses émergentes, particulièrement la perspective plus optimiste que celle naguère réservée à cette forme de trouble psychique. Nous évoquerons également les offres de soins récentes telles qu'elles se déploient dans différents pays pour nous tourner ensuite plus spécifiquement vers notre expérience lausannoise. C'est à cet égard que nous développerons plus en détails le travail essentiel et spécifique du case manager, fil rouge du programme TIPP au long des trois ans qui le composent. La conclusion portera sur les projets de recherche en cours dédiés à cette population de jeunes patients, avec l'espoir que le changement de paradigme évoqué plus haut, un optimisme raisonnable pour le pronostic, puisse lui-même rester une question ouverte à de nouveaux apports scientifiques.