805 resultados para Sécurité inconditionnelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie de l'attachement offre depuis longtemps à la relation précoce un cadre de réflexion marqué par l'importance de la transmission de l'adulte à l'enfant d'une certaine sécurité affective, qui l'aide à réguler ses émotions et à s'ouvrir progressivement vers le monde extérieur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant - Propos Le feu et la protection incendie Quel que soit l'usage d'un bâtiment, chaque étape de la construction est soumise à l'application de normes. Certaines, utilisées par les architectes et les ingénieurs, concernent le gros oeuvre ; en simplifiant leur rôle, elles assurent la solidité et la stabilité de l'immeuble. Si celui-ci est ouvert au public, des aménagements particuliers concernant la sécurité des personnes sont imposés. D'autres comme les prescriptions sur les installations électriques intérieures, précisent la manière de construire une alimentation, le type de matériel utilisable en fonction du courant et de la tension, les sécurités destinées à éviter toute détérioration des circuits et tout risque d'électrocution, etc. Enfin, les prescriptions en matière de protection incendie jouent évidemment un rôle préventif et, dans le domaine judiciaire, servent de références pour qualifier une éventuelle infraction ; elles évitent qu'une source de chaleur installée dans un bâtiment - tel qu'un appareil de chauffage ou des plaques de cuisson - ou susceptible d'apparaître consécutivement à l'usure d'un matériau ou à son vieillissement - disparition d'un isolant thermique, défaut d'étanchéité d'un conduit transportant les gaz chauds de combustion, par exemple - ne communiquent une partie de l'énergie calorifique dégagée à un combustible et ne l'enflamme. Le concept de protection incendie implique d'exposer et de développer les principales notions relatives à l'inflammation d'un matériau, à sa combustion ainsi qu'au transport de l'énergie calorifique. Fréquemment, le milieu dans lequel le générateur de chaleur est installé joue un rôle dans la phase d'allumage de l'incendie. Il est évident que les prescriptions de protection incendie s'appliquent à chaque élément de construction et, par conséquent, doivent être respectées par toute personne participant à la réalisation d'un ouvrage : le chauffagiste, l'électricien, l'installateur sanitaire, le constructeur de cuisine, mais également le maçon qui construit la cheminée, le peintre et le décorateur qui posent des revêtements ou des garnitures inflammables, le menuisier qui utilise le bois pour dissimuler des conduites de fumée, etc. Dès lors, tout sinistre, hormis celui qui est perpétré délibérément, ne peut s'expliquer que par : - le non-respect ou le défaut d'application d'une prescription de protection incendie; - une lacune de la norme qui ignore une source d'échauffement et/ou un mode de transfert de l'énergie calorifique. Le but premier de ce travail consiste à : - analyser les sinistres survenus durant les années 1999 à 2005 dans plusieurs cantons suisses qui ont fait l'objet d'une investigation de la part d'un service technique de la police ou d'un expert ; - examiner les éléments retenus pour expliquer la cause de l'incendie à la norme afin de répondre à la question : « l'application d'une ou de plusieurs directives lors de l'installation ou de l'utilisation du générateur d'énergie calorifique aurait-elle évité à ce dernier de communiquer une partie de la chaleur dégagée à un combustible et à l'enflammer ? » Le second objectif visé est d'apporter une solution à la question précédente : - si la norme existe, c'est un défaut d'installation ou d'utilisation de la source de chaleur qui est à l'origine de l'incendie. Il importe donc de connaître la raison pour laquelle la prescription a été ignorée ou appliquée de manière erronée ou lacunaire; - si la norme n'existe pas, ce sont les prescriptions en matière de protection incendie qui doivent être complétées. Le chapitre suivant abordera ces thèmes en proposant divers postulats destinés à évaluer l'efficacité actuelle du concept de protection incendie en Suisse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Présentation La littérature montre que le problème de l'erreur médicale est loin d'être sous contrôle, malgré les efforts déployés pour améliorer la sécurité des soins. Le problème de l'erreur est éminemment complexe et doit être abordé sous différents angles. Une approche possible du problème est l'expérience des médecins face à l'erreur. A quoi les médecins attribuent-ils une erreur et comment font-ils face à une erreur dont ils se sentent responsables ? Quels mécanismes de coping sont mis en oeuvre ? Ces questions ne sont pas banales car certains médecins vont typiquement montrer des réactions défensives visant à minimiser leurs responsabilités et d'autres vont montrer des réactions constructives visant à amener des changements concrets dans leur pratique ou dans le système de soins. Enjeux Cette recherche vise à mieux comprendre les facteurs qui influencent l'expérience de l'erreur et les mécanismes de coping après une erreur. Plus spécifiquement, cette recheche vise à explorer l'influence du genre. Les études disponibles sont quantitatives et n'abordent pas en profondeur l'expérience individuelle de femmes médecins. C'est dans ce créneau-là qu'a voulu se positionner cette recherche, en proposant une approche qualitative par interview. Contexte de recherche Le contexte général est l'expérience de l'erreur vécue par des femmes médecins. Afin de resserrer le cadre du projet, le recrutement a été ciblé sur (1) des médecins particulièrement à risque d'erreurs, c'est-à-dire des médecins novices, en formation postgraduée, et (2) des femmes travaillant en médecine interne hospitalière, un passage obligé pour nombre de médecins en formation. L'étude a été conduite au sein du Service de médecine interne du CHUV, avec 8 médecins-assistantes. Conclusions L'étude a révélé que la culture de l'erreur et de la sécurité est encore insuffisamment développée dans notre contexte de formation postgraduée et que l'expérience de l'erreur reste très douloureuse pour les médecins-assistantes. Le soutien de ia hiérarchie varie beaucoup et certaines assistantes se sentent clairement stigmatisées en situation d'erreur. Quant aux statégies de coping, nos données semblent indiquer un effet « genre » dans le type de statégies privilégiées. Certaines stratégies sont ciblées sur l'émotion et visent à minimiser l'impact émotionnel de l'erreur sur l'individu ; d'autres ciblées sur le problème et visent à engager des changements destinés à prévenir une récidive. Perspectives La profession médicale et les milieux de formation doivent travailler à une culture plus transparente de l'erreur. Avec une meilleure culture et un meilleur soutien des médecins exposées à l'erreur, il sera plus facile de les amener à des changements constructifs après une erreur. Des conclusions plus précises sur un effet « genre » impliquent de procéder à une comparaison directe entre médecins- assistants et médecins-assistantes. Contribution du doctorant J'ai eu l'idée initiale du projet, tandis que la perspective genre a été proposée par la première auteure, Cindy Ottiger Mankaka. J'ai supervisé l'ensemble du projet et apporté une contribution susbtantielle au manuscript en assurant la totalité du processus de soumission-révisions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse se propose d'étudier les fortifications connues dans le territoire d'Erétrie (île d'Eubée, Grèce), essentiellement aux époques classique et hellénistique (Ve-IIe siècles av. J.-C.). La plupart de ces constructions (forteresses de grand appareil, habitats fortifiés, enceintes de pierres sèches et tours) sont connues depuis le 19e siècle, mais ce travail constitue la première étude archéologique et historique d'ensemble qui leur est consacrée exclusivement. Bien que décrites depuis longtemps, les fortifications des campagnes grecques ont surtout été étudiées d'un point de vue architectural et historique. Cette approche a privilégié une interprétation militaire et stratégique, reliant les fortifications au sein de réseaux défensifs conçus à grande échelle et destinés à bloquer les accès et les frontières du territoire. Notre perspective est différente, puisqu'elle s'efforce de replacer chaque fortification dans la géographie antique en étudiant son interaction avec les plaines et les reliefs, les frontières, l'habitat, les voies de communication, les terres cultivables et la répartition de la population. Pour ce faire, nous avons établi une carte archéologique de l'Erétriade, conduit des prospections extensives autour des fortifications, ainsi que dans de nombreuses régions du territoire. Cette méthode permet d'aborder l'étude des fortifications rurales en adoptant des angles d'analyse différents : le premier, macro-géographique, met ainsi en valeur des caractéristiques générales, telles que la relation entre les fortifications et la capitale d'une part, les fortifications et les terres cultivables de l'autre ; au plan régional, ou micro-géographique, elle analyse la répartition des fortifications au sein de chaque district de l'Erétriade, voire des vallées ou des cantons, mettant en évidence le rôle local des ouvrages fortifiés. Au terme de cette recherche, il est apparu qu'une approche purement stratégique ou militaire ne permettait pas d'expliquer la répartition géographique des fortifications, puisque ces dernières se trouvent pour la plupart à l'intérieur du territoire et non à ses frontières. Elles ne sont pas non plus disposées de manière à pouvoir exercer une surveillance étroite sur les routes pénétrant dans la chôra ; aussi leur fonctionnement au sein d'un «réseau défensif frontalier ne peut pas être démontré. Dans l'Erétriade, la colonne vertébrale de la sécurité publique est formée par les habitats fortifiés, dèmes et kômai, complétée par l'existence de deux forteresses militaires ayant accueilli des garnisons. Placés toujours à bonne distance de la ville, puis à intervalles plus ou moins réguliers au sein du territoire, les habitats fortifiés jouent sur le plan régional le rôle de la ville : en cas d'invasion ou de danger, la population du dème ou des dèmes environnants pouvait y trouver refuge, mettant ainsi à l'abri récoltes, biens et animaux. L'apparition des fortifications territoriales correspond à l'extension maximale de l'occupation humaine, agricole et économique du territoire. Les communautés rurales qui en avaient la possibilité se dotèrent alors de fortifications, souvent sommaires, pour faire face à des menaces variées, mais surtout pour assurer leur propre sécurité et protéger un équilibre autarcique fragile. Il ne faut donc pas nécessairement attribuer la construction de fortifications à un événement historique précis, interprétation abusive courante dans l'étude des fortifications, en Grèce comme ailleurs. La fortification des habitats ruraux s'est réalisée de manière progressive, en réponse aux sentiments d'insécurité d'une population rurale toujours plus nombreuse. Faute de références littéraires et d'inscriptions, en particulier de décrets honorifiques, les forteresses et les habitats fortifiés de l'Erétriade constituent les derniers témoins de l'insécurité publique et des violences auxquelles fut confronté le territoire d'Erétrie aux époques classique et hellénistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour permettre à une femme enceinte de continuer à travailler en toute sécurité, l'OProma (ordonnance du Département fédéral de l'économie sur les activités dan- gereuses ou pénibles en cas de grossesse et de maternité) est entrée en vigueur en 2001. Cette loi concerne les employeurs, les médecins traitants, les gynécologues et les travailleuses enceintes et précise comment certains travaux, substances, ou micro- organismes peuvent faire courir un risque potentiel à la mère et à son enfant et comment ces risques doivent être évalués et traités. Le but de l'étude est d'évaluer, par le biais de questionnaires, l'état des connaissances des mesures légales de protection de la maternité au travail en général et plus spécifi- quement de l'OProma, chez 76 femmes enceintes suivies à la consultation d'obstétrique du CHUV (questionnaires administrés en face à face) et chez 87 gynécologues du CHUV et installés en Suisse romande (questionnaire on line). Les objectifs sont : déterminer la prévalence de la connaissance de ces dispositions légales, évaluer les facteurs person- nels pouvant influencer la connaissance de ces dernières, les raisons possibles du manque d'information et les mesures pouvant être prises pour améliorer cet état de fait. Concernant les femmes enceintes, 68% savent qu'il existe des mesures légales et 32% connaissent l'OProma, surtout par le biais de l'employeur et de l'entourage. L'unique facteur personnel significatif influençant la connaissance des mesures légales est le niveau de formation. Concernant les gynécologues, 95% savent qu'il existe des mesures légales et 47% connaissent l'existence de l'ordonnance, surtout dans le cadre de la formation continue. Les facteurs personnels significatifs sont l'âge et leurs années d'expérience pro- fessionnelle. Les deux populations trouvent que le manque d'information provient d'une méconnaissance de ces dispositions légales chez les employeurs. Les gynécologues re- connaissent aussi leurs lacunes et se sentent mal informés. Pour améliorer le manque d'information, les femmes demandent à en être informées par leur gynécologue. Les gy- nécologues désirent plus d'information et de formation sur la thématique. Il en ressort que les deux populations ont une bonne connaissance de l'existence de me- sures légales en général mais l'OProma spécifiquement est peu connue. Les gynécologues la connaissent mieux que les femmes enceintes, ce qui est loin d'être suffisant. Chez les femmes enceintes, le niveau de formation a été choisi dans cette étude comme indica- teur pour la classe sociale. L'appartenance à une classe sociale plus élevée induit une meilleure connaissance des mesures légales et de l'OProma. Chez les gynécologues, les médecins plus âgés et donc plus expérimentés connaissent mieux les mesures légales et l'OProma. Probablement, un médecin avec plus de pratique, la globalité de la patiente avec sa problématique sociale sera mieux prise en considération, en comparaison à un jeune médecin plus focalisé sur les problèmes somatiques. Il y a encore des efforts à faire concernant la formation des gynécologues et des em- ployeurs à propos de ce sujet. En effet, ces derniers se doivent d'assurer à la travailleuse enceinte une grossesse sans danger.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sur mandat de l'Office fédéral de la santé publique (OFSP), l'Institut d'économie et de management de la santé de l'Université de Lausanne a été chargé de proposer des solutions pour faciliter les comparaisons des coûts ambulatoires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEL'agriculture urbaine et périurbalne - nommée ci-après AU - est un thème fort de recherche transversale, au vu des nombreux enjeux économiques, sociaux et environnementaux. L'objectif de cette recherche était de contribuer à une meilleure connaissance des processus de transfert de polluants et du cycle des nutriments à l'échelle locale, afin de déterminer sous quelles conditions l'AU de Dakar peut être pratiquée sans porter atteinte à la santé et à l'environnement.Une approche basée sur l'étude des processus géochimiques dans ie sol jusqu'à la nappe a été choisie, à l'échelle de la parcelle cultivée et à une échelle un peu plus large de la zone périurbaine de Dakar pour déterminer les influences du type d'occupation du sol.L'évaluation des impacts de l'irrigation avec des eaux usées brutes et des eaux de nappe saumâtres sur la qualité des sols (chapitre 2) a montré que l'alcalinité et les teneurs en calcium élevées des eaux saumâtres induisent la précipitation de CaC03 dans l'horizon superficiel du sol. Na remplace consécutivement Ca sur le complexe argilo-humique du sol et les bicarbonates diminuent dans la solution du sol. Le carbone organique dissout (COD) augmente significativement dans la solution du sol et dans la nappe sous-jacente. Malgré l'alcalinité et les teneurs très élevées en calcium des eaux usées, il y a peu de précipitation de CaC03 dans l'horizon superficiel du sol et une faible augmentation du sodium échangeable ESP. La nitrification de l'ammonium des eaux usées (moy 190mg/L à Pikine) produit des protons, qui ne sont plus tamponnés par les bicarbonates exportés hors du profil. Il y a alors une nette baisse de pH des sols irrigués par des eaux usées non traitées. Les sols irrigués par des eaux usées et saumâtres stockent moins de C et Ν que les sols de référence.L'évaluation de l'influence de l'occupation des sols en zone périurbaine sur à la nappe phréatique peu profonde (chapitre 3) a permis de déterminer les traceurs représentatifs de l'occupation du sol, à savoir Br/CI, NO3/CI et δ180-Ν03 pour l'irrigation par des eaux usées, pH et δ15Ν-Ν03 pour l'irrigation par des eaux de nappe, et Rb+Cr et Κ pour les lixiviats de fosses septiques. Ce chapitre a mis en évidence des points importants de la dynamique de l'azote en zone périurbaine sous deux occupations du sol : (1) la dénitrification est un processus important dans l'agrosystème périurbain de Dakar en bas de dune, dans les gleysols où l'on trouve des conditions temporairement réduites et un substrat organique favorables aux microorganismes de la dénitrification. Les teneurs en nitrates sont presque nulles avec irrigation d'eau de nappe. (2) en bas de pente, mais avec irrigation quotidienne par les eaux usées, l'apport continu d'ammonium inhibe probablement la dénitrification, mais favorise la volatilisation. (3) la nitrification de l'ammonium dans la nappe lors de la lixiviation des fosses septiques se distingue de la nitrification de l'ammonium dans la zone non saturée dans la zone d'agriculture périurbaine par la composition isotopique de l'oxygène de l'eau. Une comparaison des flux d'azote entre l'agrosystème et les quartiers périurbains de Dakar (chapitre 4) ont révélé que ces derniers étaient du même ordre de grandeur par unité de surface, à savoir 2-4 tonnes Ν /ha/an.L'évaluation des flux de pesticides dans l'agrosystème et des risques induits pour les eaux souterraines (chapitre 5) a révélé un fiux total de pesticides de 60kg/ha/an, totalisant 15 matières actives. Seules deux de ces matières actives sont autorisées par le comité des pesticides sahélien. Les pesticides les plus utilisés par les producteurs sont l'organochloré dicofol, les organophosphorés methamidophos, dimethoate et fenithrotion ainsi que le cabamate methomyl. Les flux les plus importants sont de 9 à 7 kg/ha/an (methomyl, methamidophos, ethoprophos et dicofol). Les pesticides qui présentent un risque élevé de contamination des eaux souterraines et qui devraient être prioritaires pour un suivi analytique sont : le carbofuran, le dimethoate, l'ethoprophos et le methomyl.En conclusion, une meilleure gestion de la fertilisation est nécessaire dans la zone d'AU de Dakar, afin de (1) réduire les pertes gazeuses qui contribuent à l'effet de serre, (2) de ralentir la minéralisation du carbone et de l'azote organiques pour créer un stock de C et Ν dans ces sols, (3) de limiter le lessivage dans la nappe et enfin, 4) d'augmenter l'efficacité d'utilisation de Ν par les plantes. Une optimisation de l'irrigation devrait limiter l'alcalinisation secondaire. Enfin, la mise en place d'une lutte intégrée ou biologique contre les ravageurs est indispensable afin de minimiser les risques pour les eaux souterraines et les mares permanentes.ABSTRACTUrban and periurban agriculture (UA) is an important issue in southern countries, because of its key role in their social and economical development and its environmental concern. The goal of this study was to contribute to a better understanding of pollutant transfer and nutrient cycling at the local scale, in order to implement the necessary improvements to guarantee the sustainability of this practice.An approach based on geochemical processes occurring in the vadose zone from the surface down to the groundwater level was chosen, at the scale of cultivated plots and at the regional scale of Dakar periurban areas, to determine the influence of land use.The assessment of irrigation with untreated domestic wastewater and brackish water on soil quality (chapter 2) showed: (1) that the high alkalinity and calcium contents of brackish water induce CaC03 precipitation in the top layer of the soil and therefore a replacement of Ca by Na on the clay- humic complexes, strongly marked during the dry season. Dissolved organic carbon (DOC) increased significantly in the soil solution and in the underlying groundwater. (2) in spite of the similarly high alkalinity and Ca contents of waste water, there is only little CaC03 precipitation and a low increase of the percentage of exchangeable sodium (ESP) in the soil top layer. The nitrification of the ammonium of wastewater (mean 190 mg/L in Pikine) produces protons, which are not any more buffered by bicarbonates exported out of the soil profile, which leads to a net decline of soil pH. Both soils irrigated with untreated wastewater and brackish water store less of C and Ν than soils irrigated with non saline groundwater.The assessment of the impact of land use on the shallow groundwater (chapter 3) allowed determining representative tracers of the land use. Low Br/CI ratio, high NO3/CI ratio and low δ1βΟ- nitrate indicated the influence of wastewater; high pH and high 515N-nitrates indicated the influence of brackish water together with high amendments of organic fertilizers; high Rb+Cr and Κ indicated the influence of poor sanitation facilities in periurban districts (septic tank leakage). This chapter also pointed out the following facts about the nitrogen dynamics : (1) denitrification is a key-process in the Dakar UA agrosystem in the gleysols irrigated with groundwater. The underlying groundwater is almost nitrate free. (2) in the Gleysols irrigated with waste water, ammonium inhibits denitrification but facilitate ammoniac volatilization. A comparison of nitrogen balance between the UA agrosystem and the periurban districts of Dakar (chapter 4) revealed similar flows per surface unit, namely 2-4 tons Ν / ha / year.The evaluation of pesticides use in the UA agrosystem and the risk assessment for the groundwater (chapter 5) revealed a total flow of pesticides of 60kg / ha / year, totalizing 15 active substances. Only two of these are authorized by the Sahelian Pesticides Committee. The most used pesticides are dicofol (organochlorinated), methamidophos, dimethoate and fenithrotion (organophosphate) as well as methomyl. (carbamate). The most important flows vary between 9 to 7 kg / ha / year. Pesticides with a high risk of groundwater contamination - according to SIRIS and EPRIP 2 indicators - are: carbofuran, dimethoate, ethoprophos and methomyl. These substances should be established as a priority for an analytical follow-up in the different environmental compartments.In conclusion, a better management of the fertilization is necessary in the Dakar UA, (1) to reduce the gaseous losses which contribute to greenhouse emissions (2) to slow down the mineralization of the organic carbon and the nitrogen, in order to enhance the C and Ν stock in these soils, (3) to limit the nitrate leaching in the groundwater and finally, 4) to increase the N-use efficiency of plants. An optimization of the irrigation scheme should limit the secondary sodisation if coupled with an increase the stable organic matter of the soil. An integrated or biologic crop pest strategy is urgently needed to minimize risks with respect to ground and surface water (ponds used for fishing).RESUME LARGE PUBLICL'agriculture mondiale connaît actuellement une crise majeure, affectée par les changements climatiques, la sécurité alimentaire et les dégradations de l'environnement. Elle n'a plus le rôle unique de produire, mais devient un élément essentiel de la protection des ressources naturelles et du paysage. Les politiques agricoles basées sur les marchés mondiaux devront se réorienter vers une agriculture locale basée sur le développement durable.La production alimentaire située dans l'enceinte des villes, nommée agriculture urbaine ou périurbaine (AU ci-après) joue un rôle important dans le contexte actuel d'accroissement de la population et de la pauvreté urbaines. L'AU concerne en effet la majorité des mégapoies du monde, fait vivre plus de 200 millions de personnes dans les pays du Sud, fournit jusqu'à 80% de la demande urbaine en certains produits frais, fait barrière à l'extension urbaine et permet un recyclage de certains déchets urbains. L'AU a pour particularité d'être à cheval entre des politiques rurales et urbaines, d'où un délaissement ce cette activité au secteur informel. Ce qui a développé de nombreuses stratégies à risques, comme à Dakar, où les petits producteurs périurbains irriguent quotidiennement avec des eaux usées domestiques par manque d'accès à une eau de bonne qualité et pour raccourcir les cycles de production. L'extrême précarité foncière des acteurs de l'AU de Dakar les empêchent d'investir à long terme et induit des pratiques inadéquates d'irrigation, d'usage de pesticides et de fertilisation de ces sols sableux.L'objectif de cette recherche était de contribuer à une meilleure connaissance des processus de transfert de polluants et du cycle des nutriments à l'échelle des parcelles cultivées par des eaux usées et des eaux saumâtres, afin de déterminer sous quelles conditions l'AU de Dakar peut être pratiquée et surtout maintenue sans porter atteinte à la santé et à l'environnement. Pour cela, une approche basée sur l'étude des processus géochimiques dans le sol jusqu'à la nappe a été choisie, à l'échelle de la parcelle cultivée et à une échelle un peu plus large de la zone périurbaine de Dakar pour déterminer les influences du type d'occupation du sol.Les résultats principaux de cette étude ont montré que (1) il y a un processus de salinisation anthropique des sols (sodisation) lors d'irrigation avec des eaux de nappe saumâtres, un processus accentué en saison sèche et lors d'années à pluviométrie déficitaire. Bien que les eaux usées soient aussi salines que les eaux de nappe, la salinisation des sols irrigués' par des eaux usées est limitée par l'ammonium présent dans les eaux usées (moy 190mg NH4/L à Pikine) qui produit de l'acidité lors de la transformation en nitrates dans le sol (nitrification). (2) les sols irrigués par des eaux usées (EU) stockent moins de C et Ν que les sois de référence, ce qui montrent bien que l'azote des eaux usées n'est pas disponible pour les plantes, mais est lessivé dans la nappe (100 à 450 mg/L N03 sous irrigation par EU, alors que la limite de OMS est de 50mg/L). (3) l'utilisation des isotopes stables des nitrates et des éléments traces, notamment le bore et le brome, ont permis de distinguer l'influence de l'irrigation par des eaux usées, de l'irrigation par des eaux de nappe et des lixiviats de fosses septiques sur les propriétés de la nappe. (4) Le processus de la dénitrification (atténuation naturelle des concentrations en nitrates de la nappe par biotransformation en azote gazeux) est important dans les zones basses de l'agrosystème périurbain de Dakar, sous irrigation par eaux naturelles (ΝΟ3 < 50mg/L). Tandis que sous habitat sans assainissement adéquat, les nitrates atteignent 300 à 700 mg/L. (5) Le flux total de pesticides dans l'AU est énorme (60kg/ha/an) totalisant 15 pesticides, dont deux seulement sont autorisés. Les pesticides les plus utilisés sont des insecticides organophosphorés et organochlorés classés extrêmement dangereux à dangereux par l'OMS, appliqués à des doses de 2 à 9 kg/ha/an. Les pesticides qui ont montré un risque élevé de contamination des eaux souterraines avec les indicateurs SIRIS et EPRIP2 sont : le carbofuran, le dimethoate, l'ethoprophos et le methomyl.En conclusion, nous recommandons la reconstitution d'un horizon superficiel des sols riche en matière organique stable et structuré par production locale de compost. Cette mesure réduira les pertes gazeuses contribuant à l'effet de serre, augmentera le stock de Ν dans ces sols, alors utilisable par les plantes et permettra de diminuer l'irrigation car la capacité de rétention de l'eau dans le sol sera accru, ce qui limitera le lessivage des nitrates dans la nappe et l'alcalinisation secondaire. Enfin, la mise en place d'une lutte intégrée ou biologique contre les ravageurs est indispensable afin de minimiser les risques pour les eaux souterraines et lesmares permanentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie de l'attachement est une théorie dyadique, par essence. Même si le père peut être reconnu comme une réelle figure d'attachement, en ce sens qu'il est susceptible de procurer à l'enfant une expérience de sécurité, la théorie reste essentiellement dyadique. Redéfinir la théorie de l'attachement dans une perspective triadique n'est pas sans poser des difficultés théoriques. Ace propos, nous suggérons une perspective inspirée par un concept d'écologie comportementale, celui de l'utilisation adaptative par les organismes d'informations publiques fournies par inadvertance par d'autres organismes, concept que nous étendrons à cette fin aux expressions émotionnelles. Nous proposons alors l'idée que dans la triade, chaque partenaire utilise ce type d'informations, fournies à la fois par chacun des autres partenaires ainsi que par les interactions ellesmêmes entre ces partenaires. L'utilisation de ces informations aurait, dans cette perspective, une fonction adaptative pour le maintien de la triade comme une entité soudée par des échanges d'expériences émotionnelles. The theory of attachment is essentially a dyadic theory. Even though the father is recognised as a real figure of attachment in that he brings a feeling of security to the child, basically the theory remains dyadic. Redefining the theory of attachment in a triadic perspective is not without raising difficult theoretical problems. This leads us to suggest a perspective inspired by the concept of ecological behaviour : the adaptative use of public information acquired inadvertently through other organisms, a concept applied here to emotional expression. We propose that in the triad each partner uses this type of information brought by the other partner as well as those very interactions between both partners. The use of information to maintain the triad as an entity bound by exchanges of emotional experience would be an adaptative function.