986 resultados para Thérapies alternatives


Relevância:

10.00% 10.00%

Publicador:

Resumo:

5 to 10% of all fractures present with a delayed union, whereas 1 to 5% progress to a nonunion, which can be defined as a fracture older than 6 months and lacks any potential to heal without any further intervention. Different fracture and patient related risk factors exist, and the management of a nonunion needs a thorough clinical, radiological and biological workup to classify them in one of the two main categories, the viable nonunions that need essentially more stability, usually by a more rigid fixation, and the non-viable nonunions that need essentially a biological stimulation by decortication and bone grafting. This treatment still remains the first choice with bony healing obtained in 85 to 95% of cases, but it also comes along with certain risks, and some valuable alternatives exist if chosen on the basis of rigid criteria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El projecte s'inscriu dins de l'àmbit de la investigació i innovació docent aplicant criteris de gestió de qualitat en els que es tenen molt presents els aspectes relacionats amb la seguretat i la sostenibilitat. El projecte promou la investigació generant models de funcionament i verificant la qualitat dels resultats de la seva aplicació. Des d'aquest punt de vista la recerca incorpora aspectes relacionats amb la seguretat i la sostenibilitat dels procediments, la manipulació de productes i materials, la gestió de residus i el seu reciclatge als tallers i laboratoris de les Facultats de Belles Arts. Els resultats d'aquestes investigacions tenen una extensió social en l'àmbit de les Belles Arts en general. Existeix suficient evidència empírica sobre el deteriorament de la salut i els danys que causen un gran nombre de substàncies, productes i materials utilitzats habitualment en les Belles Arts i es sospita sobre els potencials efectes negatius d'altres productes. A Espanya, també és conegut el limitat desenvolupament en matèria de prevenció laboral, de protecció mediambiental i en paràmetres de sostenibilitat en relació amb l'Espai Europeu i, especialment, al nord d'Europa. Es pot considerar, encara, la tímida i escassament coordinada, encara que progressiva, implantació de mesures orientades a solucionar aquestes deficiències per part de les universitats espanyoles i el seu insuficient finançament. En un context d'elevada sensibilització social i dels mitjans de comunicació sobre els efectes del canvi climàtic i la contaminació els processos de canvi s'han de liderar des d'institucions de rang molt divers. Amb els antecedents esmentats el grup d'investigació advoca per continuar desenvolupant diferents modalitats de recerca, buscant alternatives eficaces en aquest àmbit. Alternatives que contemplin la possible substitució d'uns productes per altres, la reducció d'aquells insubstituïbles, la implantació de procediments de qualitat verificada, l'adopció de mesures de seguretat de naturalesa preventiva o mediambiental, l'exploració de recursos sostenibles, etc. per solucionar en la mesura possible l'esmentada problemàtica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contamination with arsenic is a recurring problem in both industrialized and developing countries. Drinking water supplies for large populations can have concentrations much higher than the permissible levels (for most European countries and the United States, 10 μg As per L; elsewhere, 50 μg As per L). Arsenic analysis requires high-end instruments, which are largely unavailable in developing countries. Bioassays based on genetically engineered bacteria have been proposed as suitable alternatives but such tests would profit from better standardization and direct incorporation into sensing devices. The goal of this work was to develop and test microfluidic devices in which bacterial bioreporters could be embedded, exposed and reporter signals detected, as a further step towards a complete miniaturized bacterial biosensor. The signal element in the biosensor is a nonpathogenic laboratory strain of Escherichia coli, which produces a variant of the green fluorescent protein after contact to arsenite and arsenate. E. coli bioreporter cells were encapsulated in agarose beads and incorporated into a microfluidic device where they were captured in 500 × 500 μm(2) cages and exposed to aqueous samples containing arsenic. Cell-beads frozen at -20 °C in the microfluidic chip retained inducibility for up to a month and arsenic samples with 10 or 50 μg L(-1) could be reproducibly discriminated from the blank. In the 0-50 μg L(-1) range and with an exposure time of 200 minutes, the rate of signal increase was linearly proportional to the arsenic concentration. The time needed to reliably and reproducibly detect a concentration of 50 μg L(-1) was 75-120 minutes, and 120-180 minutes for a concentration of 10 μg L(-1).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Situer des évènements dans le temps est une question essentielle en science forensique, de même que le transfert et l'identification. En effet, si une personne déclare avoir été sur les lieux d'un crime à un autre moment que l'évènement en question, la trace laissée (transfert) sur les lieux par cette personne (identification) perd toute signification. La pertinence de la trace est donc étroitement liée à la notion de temps. Les difficultés rencontrés lors de l'étude de la datation de différents type de traces ont crées une controverse mondiale sur la validité des méthodes proposées jusqu'ici, particulièrement en regard de la responsabilité de l'expert scientifique face à la justice. Si l'on considère la récurrence de cette problématique en sciences forensiques, une approche systématique ainsi qu'une meilleure compréhension fondamentale de la détermination de l'âge d'une trace est définitivement nécessaire. Cela représente un grand défi, puisque les processus de vieillissement sont influencés par plusieurs facteurs qui peuvent considérablement accélérer ou ralentir le vieillissement. Ceux-ci devront être étudiés de manière approfondie et peuvent être classés en trois groupes principaux : (i) la composition initiale de la trace, (ii) le type de substrat sur lequel se trouvent les traces, et (iii) les conditions de stockage. Pour ces raisons, l'objectif est donc plus de déterminer un intervalle de temps durant lequel la trace a été déposée, plutôt qu'une date précise. Finalement, une interprétation des résultats selon une approche probabiliste (par ex. basée sur une inférence de type Bayesienne sous deux hypothèses alternatives) semble la plus appropriée. Le développement de cette approche globale fait l'objet d'un ambitieux programme de recherche soutenu par le Fonds National Suisse de la Recherche Scientifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction. La détresse psychique touche entre 30 et 50% des patients atteints de cancer (1-5). Les troubles psychiatriques les plus fréquemment observés sont les états dépressifs et les troubles anxieux et d'adaptation (1). En ce qui concerne les approches psychodynamiques auprès de patients atteints de cancer, il manque des études évaluant l'effet de ces thérapies. L'objectif de ce travail de master est d'investiguer une intervention psychothérapeutique d'inspiration psychodynamique effectuée auprès de patients nouvellement diagnostiqués de cancer. Méthode. Basée sur la lecture de 20 rapports, une grille de lecture des thématiques abordées dans les interventions a été élaborée puis discutée en deux focus groups entre trois chercheurs. Pour l'analyse semi-quantitative, deux de ces chercheurs ont appliqué la grille d'analyse à tous les rapports (N=135) et ont ensuite confronté et discuté leurs classifications jusqu'à l'obtention d'un consensus. Résultats. Une liste de vingt thématiques classées dans deux catégories a été élaborée: 1) témoignage/demande de soutien et 2) introspection avec les sous-catégories 2.1) changement de fonctionnement psychologique et 2.2) modification du positionnement relationnel. La moitié (50,4%) des patients ont consulté pour témoigner ou demander un soutien, 27,4% pour un changement de fonctionnement psychologique et 9,6% pour une modification du positionnement relationnel; 12,6% des patients n'ont pas pu être classifiés. En général, les patients consultant pour témoigner ou demander un soutien sont légèrement plus âgés et présentent un stade de maladie plus avancé, et consultent en moyenne durant 4 à 5 séances. Les patients qui visent un changement de fonctionnement psychologique suivent une tendance inverse et consultent en moyenne durant 11 à 12 séances; ceux qui désirent une modification de leur positionnement relationel sont également légèrement plus jeunes, avec un stade de maladie moins avancé, mais leur nombre de séances effectuées est très variable. Lorsque les patients effectuent un travail sur soi ou sur leurs relations, les sujets abordés ne sont que rarement centrés sur le cancer. Par contre, chez des patients qui consultent pour témoigner ou être soutenus, les angoisses liées au cancer sont plus souvent au coeur de l'intervention thérapeutique. Discussion. Les rapports de psychothérapie de patients atteints de cancer rédigés dans le cadre d'une étude sont sujets à la subjectivité des thérapeutes et à leurs interprétations quant au processus thérapeutique. Et il en va de même pour l'analyse que les chercheurs en font. Néanmoins, les résultats montrent qu'une grande variété de thématiques sont abordées durant les thérapies et que "l'évènement cancer" n'est pas toujours au centre des entretiens; avec certains patients les thérapeutes entament un travail plus conséquent en ce qui concerne sa durée et son contenu; travail qui va au-delà de "l'évènementiel". Les patients des différentes catégories identifiées se distinguent clairement quant à leur désir d'approfondir un travail thérapeutique, quant aux objectifs qu'ils souhaitent atteindre et quant au type d'intervention psychothérapeutique dont ils ont besoin. Conclusion. Les approches psychothérapeutiques pour les patients atteints de cancer demandent du thérapeute une grande souplesse, afin de s'adapter à la demande et aux capacités d'élaboration des patients. Une clarification rapide de ces deux paramètres dans les premières séances devrait faire partie intégrante de la prise en charge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nitrogen fertilizers increase the nitrous oxide (N2O) emission and can reduce the methane (CH4) oxidation from agricultural soils. However, the magnitude of this effect is unknown in Southern Brazilian edaphoclimatic conditions, as well as the potential of different sources of mineral N fertilizers in such an effect. The aim of this study was to investigate the effects of different mineral N sources (urea, ammonium sulphate, calcium nitrate, ammonium nitrate, Uran, controlled- release N fertilizer, and urea with urease inhibitor) on N2O and CH4 fluxes from Gleysol in the South of Brazil (Porto Alegre, RS), in comparison to a control treatment without a N application. The experiment was arranged in a randomized block with three replications, and the N fertilizer was applied to corn at the V5 growth stage. Air samples were collected from a static chambers for 15 days after the N application and the N2O and CH4 concentration were determined by gas chromatography. The topmost emissions occurred three days after the N fertilizer application and ranged from 187.8 to 8587.4 µg m-2 h-1 N. The greatest emissions were observed for N-nitric based fertilizers, while N sources with a urease inhibitor and controlled release N presented the smallest values and the N-ammonium and amidic were intermediate. This peak of N2O emissions was related to soil NO3--N (R² = 0.56, p < 0.08) when the soil water-filled pore space was up to 70 % and it indicated that N2O was predominantly produced by a denitrification process in the soil. Soil CH4 fluxes ranged from -30.1 µg m-2 h-1 C (absorption) to +32.5 µg m-2 h-1 C (emission), and the accumulated emission in the period was related to the soil NH4+-N concentration (R² = 0.82, p < 0.001), probably due to enzymatic competition between nitrification and metanotrophy processes. Despite both of the gas fluxes being affected by N fertilizers, in the average of the treatments, the impact on CH4 emission (0.2 kg ha-1 equivalent CO2-C ) was a hundredfold minor than for N2O (132.8 kg ha-1 equivalent CO2-C). Accounting for the N2O and CH4 emissions plus energetic costs of N fertilizers of 1.3 kg CO2-C kg-1 N regarding the manufacture, transport and application, we estimated an environmental impact of N sources ranging from 220.4 to 664.5 kg ha-1 CO2 -C , which can only be partially offset by C sequestration in the soil, as no study in South Brazil reported an annual net soil C accumulation rate larger than 160 kg ha-1 C due to N fertilization. The N2O mitigation can be obtained by the replacement of N-nitric sources by ammonium and amidic fertilizers. Controlled release N fertilizers and urea with urease inhibitor are also potential alternatives to N2O emission mitigation to atmospheric and systematic studies are necessary to quantify their potential in Brazilian agroecosystems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The "50 States Project" is the name given to President Ronald D. Reagan;s 1981 pledge to encourage the fifty governors to initiate individual state projects to review their state Codes for unequal treatment of persons based upon sex. We believe that Iowa is the first state to complete this project. Project efforts in Iowa began in June of 1981, when the Governor Robert D. ray appointed Dr. Patricia L. Geadelmann, Chairperson on the Iowa commission on the Status of Women, as Iowa's 50 State Project representative. A 50 States planning committee was formed consisting of members from the Governor Ray's staff, the Iowa Commission on the Status of Women, and the Iowa Legislature. Various alternatives for reviewing the Iowa code and the Iowa Administrative Rules were studied and recommendations of the group were reported to Governor Terry E. Branstad prior to his inauguration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUCTION: Auscultatory nonmercury manual devices seem good alternatives for the mercury sphygmomanometers in the clinic and for research settings, but individual internal validation of each device is time-consuming. The aim of this study was to validate a new technique capable of testing two devices simultaneously, based on the International protocol of the European Society of Hypertension. METHODS: The concept of the new technique is to measure blood pressure alternatively by two observers using a mercury sphygmomanometer and by two observers using the A&D UM-101 and Accoson Greenlight 300 devices, connected by Y-tube to obtain simultaneous readings with both nonmercury devices. Thirty-three participants were enrolled (mean age 47.2±14.0 years). Nine sequential blood pressure measurements were performed for each participant. RESULTS: Both devices passed phase 1 using 15 participants. In phase 2.1 (n=33), on a maximum of 99 measurements, the Accoson device produced 81/95/99 measurements within 5/10/15 mmHg for systolic blood pressure (SBP) and 87/98/99 for diastolic blood pressure (DBP). The A&D device produced 86/96/99 for SBP and 94/99/99 for DBP. In phase 2.2 (n=33), 30 participants had at least 2 out of 3 SBP obtained with Accoson device within 5 mmHg of the mercury device, as compared with 29 of 33 participants with the A&D device. For DBP, this was 33 of 33 participants for both devices. CONCLUSION: Both the nonmercury devices passed the International protocol. The new technique of simultaneous device testing using a Y-tube represents a time saving application of the International protocol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Adverse Outcome Pathway (AOP) framework provides a template that facilitates understanding of complex biological systems and the pathways of toxicity that result in adverse outcomes (AOs). The AOP starts with an molecular initiating event (MIE) in which a chemical interacts with a biological target(s), followed by a sequential series of KEs, which are cellular, anatomical, and/or functional changes in biological processes, that ultimately result in an AO manifest in individual organisms and populations. It has been developed as a tool for a knowledge-based safety assessment that relies on understanding mechanisms of toxicity, rather than simply observing its adverse outcome. A large number of cellular and molecular processes are known to be crucial to proper development and function of the central (CNS) and peripheral nervous systems (PNS). However, there are relatively few examples of well-documented pathways that include causally linked MIEs and KEs that result in adverse outcomes in the CNS or PNS. As a first step in applying the AOP framework to adverse health outcomes associated with exposure to exogenous neurotoxic substances, the EU Reference Laboratory for Alternatives to Animal Testing (EURL ECVAM) organized a workshop (March 2013, Ispra, Italy) to identify potential AOPs relevant to neurotoxic and developmental neurotoxic outcomes. Although the AOPs outlined during the workshop are not fully described, they could serve as a basis for further, more detailed AOP development and evaluation that could be useful to support human health risk assessment in a variety of ways.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the main problems faced by humanity is pollution caused by residues resulting from the production and use of goods, e.g, sewage sludge. Among the various alternatives for its disposal, the agricultural use seems promising. The purpose of this study was to evaluate the hydraulic conductivity and interaction of soil with sandy-silty texture, classified as Spodosols, from the Experimental Station Itapirema - IPA, in Goiana, state of Pernambuco, in mixtures with sewage sludge from the Mangueira Sewage Treatment Station, in the city of Recife, Pernambuco at rates of 25, 50 and 75 Mg ha-1. Tests were conducted to let water percolate the natural saturated soil and soil-sludge mixtures to characterize their physical, chemical, and microstructural properties as well as hydraulic conductivity. Statistical data analysis showed that the presence of sewage sludge in soils leads to an increase of the < 0.005 mm fraction, reduction in real specific weight and variation in optimum moisture content from 11.60 to 12.90 % and apparent specific dry weight from 17.10 and 17.50 kN m-3. In the sludge-soil mixture, the quartz grains were covered by sludge and filling of the empty soil macropores between grains. There were changes in the chemical characteristics of soil and effluent due to sewage sludge addition and a small decrease in hydraulic conductivity. The results indicate the possibility that soil acidity influenced the concentrations of the elements found in the leachate, showing higher levels at higher sludge doses. It can be concluded that the leaching degree of potentially toxic elements from the sewage sludge treatments does not harm the environment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the support of the Iowa Fly Ash Affiliates, research on reclaimed fly ash for use as a construction material has been ongoing since 1991. The material exhibits engineering properties similar to those of soft limestone or sandstone and a lightweight aggregate. It is unique in that it is rich in calcium, silica, and aluminum and exhibits pozzolanic properties (i.e. gains strength over time) when used untreated or when a calcium activator is added. Reclaimed Class C fly ashes have been successfully used as a base material on a variety of construction projects in southern and western Iowa. A pavement design guide has been developed with the support of the Iowa Fly Ash Affiliates. Soils in Iowa generally rate fair to poor as subgrade soils for paving projects. This is especially true in the southern quarter of the state and for many areas of eastern and western Iowa. Many of the soil types encountered for highway projects are unsuitable soils under the current Iowa DOT specifications. The bulk of the remaining soils are Class 10 soils. Select soils for use directly under the pavement are often difficult to find on a project, and in many instances are economically unavailable. This was the case for a 4.43-mile grading (STP-S- 90(22)-SE-90) and paving project in Wapello County. The project begins at the Alliant Utilities generating station in Chillicothe, Iowa, and runs west to the Monroe-Wapello county line. This road carries a significant amount of truck traffic hauling coal from the generating station to the Cargill corn processing plant in Eddyville, Iowa. The proposed 10-inch Portland Cement Concrete (PCC) pavement was for construction directly on a Class 10 soil subgrade, which is not a desirable condition if other alternatives are available. Wapello County Engineer Wendell Folkerts supported the use of reclaimed fly ash for a portion of the project. Construction of about three miles of the project was accomplished using 10 inches of reclaimed fly ash as a select fill beneath the PCC slab. The remaining mile was constructed according to the original design to be used as a control section for performance monitoring. The project was graded during the summers of 1998 and 1999. Paving was completed in the fall of 1999. This report presents the results of design considerations and laboratory and field testing results during construction. Recommendations for use of reclaimed fly ash as a select fill are also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACTIn normal tissues, a balance between pro- and anti-angiogenic factors tightly controls angiogenesis. Alterations of this balance may have pathological consequences. For instance, concerning the retina, the vascular endothelial growth factor (VEGF) is a potent pro-angiogenic factor, and has been identified has a key player during ocular neovascularization implicated in a variety of retinal diseases. In the exudative form (wet-form) of age-related macular degeneration (AMD), neovascularizations occurring from the choroidal vessels are responsible for a quick and dramatic loss of visual acuity. In diabetic retinopathy and retinopathy of prematurity, sprouting from the retinal vessels leads to vision loss. Furthermore, the aging of the population, the increased- prevalence of diabetes and the better survival rate of premature infants will lead to an increasing rate of these conditions. In this way, anti-VEGF strategy represents an important therapeutic target to treat ocular neovascular disorders.In addition, the administration of Pigmented Epithelial growth factor, a neurotrophic and an anti- angiogenic factor, prevents photoreceptor cell death in a model of retinal degeneration induced by light. Previous results analyzing end point morphology reveal that the light damage (LD) model is used to mimic retinal degenerations arising from environmental insult, as well as aging and genetic disease such as advanced atrophic AMD. Moreover, light has been identified as a co-factor in a number of retinal diseases, speeding up the degeneration process. This protecting effect of PEDF in the LD retina raises the possibility of involvement of the balance between pro- and anti-angiogenic factors not only for angiogenesis, but also in cell survival and maintenance.The aim of the work presented here was to evaluate the importance of this balance in neurodegenerative processes. To this aim, a model of light-induced retinal degeneration was used and characterized, mainly focusing on factors simultaneously controlling neuron survival and angiogenesis, such as PEDF and VEGF.In most species, prolonged intense light exposure can lead to photoreceptor cell damage that can progress to cell death and vision loss. A protocol previously described to induce retinal degeneration in Balb/c mice was used. Retinas were characterized at different time points after light injury through several methods at the functional and molecular levels. Data obtained confirmed that toxic level of light induce PR cell death. Variations were observed in VEGF pathway players in both the neural retina and the eye-cup containing the retinal pigment epithelium (RPE), suggesting a flux of VEGF from the RPE towards the neuroretina. Concomitantly, the integrity of the outer blood-retinal-barrier (BRB) was altered, leading to extravascular albumin leakage from the choroid throughout the photoreceptor layer.To evaluate the importance of VEGF during light-induced retinal degeneration process, a lentiviral vector encoding the cDNA of a single chain antibody directed against all VEGF-A isoforms was developed (LV-V65). The bioactivity of this vector to block VEGF was validated in a mouse model of laser-induced choroidal neovascularization mediated by VEGF upregulation. The vector was then used in the LD model. The administration of the LV-V65 contributed to the maintenance of functional photoreceptors, which was assessed by ERG recording, visual acuity measurement and histological analyses. At the RPE level, the BRB integrity was preserved as shown by the absence of albumin leakage and the maintenance of RPE cell cohesion.These results taken together indicate that the VEGF is a mediator of light induced PR degeneration process and confirm the crucial role of the balance between pro- and anti-angiogenic factors in the PR cell survival. This work also highlights the prime importance of BRB integrity and functional coupling between RPE and PR cells to maintain the PR survival. VEGF dysregulation was already shown to be involved in wet AMD forms and our study suggests that VEGF dysregulation may also occur at early stages of AMD and could thus be a potential therapeutic target for several RPE related diseases.RESUMEDans les différents tissues de l'organisme, l'angiogenèse est strictement contrôlée par une balance entre les facteurs pro- et anti-angiogéniques. Des modifications survenant dans cette balance peuvent engendrer des conséquences pathologiques. Par exemple, concernant la rétine, le facteur de croissance de l'endothélium vasculaire (VEGF) est un facteur pro-angiogénique important. Ce facteur a été identifié comme un acteur majeur dans les néovascularisations oculaires et les processus pathologiques angiogéniques survenant dans l'oeil et responsables d'une grande variété de maladies rétiniennes. Dans la forme humide de la dégénérescence maculaire liée à l'âge (DMLA), la néovascularisation choroïdienne est responsable de la perte rapide et brutale de l'acuité visuelle chez les patients affectés. Dans la rétinopathie diabétique et celle lié à la prématurité, l'émergence de néovaisseaux rétiniens est la cause de la perte de la vision. Les néovascularisations oculaires représentent la principale cause de cécité dans les pays développés. De plus, l'âge croissant de la population, la progression de la prévalence du diabète et la meilleure survie des enfants prématurés mèneront sans doute à l'augmentation de ces pathologies dans les années futures. Dans ces conditions, les thérapies anti- angiogéniques visant à inhiber le VEGF représentent une importante cible thérapeutique pour le traitement de ces pathologies.Plusieurs facteurs anti-angiogéniques ont été identifiés. Parmi eux, le facteur de l'épithélium pigmentaire (PEDF) est à la fois un facteur neuro-trophique et anti-angiogénique, et l'administration de ce facteur au niveau de la rétine dans un modèle de dégénérescence rétinienne induite par la lumière protège les photorécepteurs de la mort cellulaire. Des études antérieures basées sur l'analyse morphologique ont révélé que les modifications survenant lors de la dégénération induite suite à l'exposition à des doses toxiques de lumière représente un remarquable modèle pour l'étude des dégénérations rétiniennes suite à des lésions environnementales, à l'âge ou encore aux maladies génétiques telle que la forme atrophique avancée de la DMLA. De plus, la lumière a été identifiée comme un co-facteur impliqué dans un grand nombre de maladies rétiniennes, accélérant le processus de dégénération. L'effet protecteur du PEDF dans les rétines lésées suite à l'exposition de des doses toxiques de lumière suscite la possibilité que la balance entre les facteurs pro- et anti-angiogéniques soit impliquée non seulement dans les processus angiogéniques, mais également dans le maintient et la survie des cellules.Le but de ce projet consiste donc à évaluer l'implication de cette balance lors des processus neurodégénératifs. Pour cela, un modèle de dégénération induite par la lumière à été utilisé et caractérisé, avec un intérêt particulier pour les facteurs comme le PEDF et le VEGF contrôlant simultanément la survie des neurones et l'angiogenèse.Dans la plupart des espèces, l'exposition prolongée à une lumière intense peut provoquer des dommages au niveau des cellules photoréceptrices de l'oeil, qui peut mener à leur mort, et par conséquent à la perte de la vision. Un protocole préalablement décrit a été utilisé pour induire la dégénération rétinienne dans les souris albinos Balb/c. Les rétines ont été analysées à différents moments après la lésion par différentes techniques, aussi bien au niveau moléculaire que fonctionnel. Les résultats obtenus ont confirmé que des doses toxiques de lumière induisent la mort des photorécepteurs, mais altèrent également la voie de signalisation du VEGF, aussi bien dans la neuro-rétine que dans le reste de l'oeil, contenant l'épithélium pigmentaire (EP), et suggérant un flux de VEGF provenant de ΙΈΡ en direction de la neuro-rétine. Simultanément, il se produit une altération de l'intégrité de la barrière hémato-rétinienne externe, menant à la fuite de protéine telle que l'albumine, provenant de la choroïde et retrouvée dans les compartiments extravasculaires de la rétine, telle que dans la couche des photorécepteurs.Pour déterminer l'importance et le rôle du VEGF, un vecteur lentiviral codant pour un anticorps neutralisant dirigée contre tous les isoformes du VEGF a été développé (LV-V65). La bio-activité de ce vecteur a été testé et validée dans un modèle de laser, connu pour induire des néovascularisations choroïdiennes chez la souris suite à l'augmentation du VEGF. Ce vecteur a ensuite été utilisé dans le modèle de dégénération induite par la lumière. Les résultats des électrorétinogrammes, les mesures de l'acuité visuelle et les analyses histologiques ont montré que l'injection du LV-V65 contribue à la maintenance de photorécepteurs fonctionnels. Au niveau de l'EP, l'absence d'albumine et la maintenance des jonctions cellulaires des cellules de l'EP ont démontré que l'intégrité de la barrière hémato-rétinienne externe est préservée suite au traitement.Par conséquent, tous les résultats obtenus indiquent que le VEGF est un médiateur important impliquée dans le processus de dégénération induit par la lumière et confirme le rôle cruciale de la balance entre les facteurs pro- et anti-angiogéniques dans la survie des photorécepteurs. Cette étude révèle également l'importance de l'intégrité de la barrière hémato-rétinienne et l'importance du lien fonctionnel et structurel entre l'EP et les photorécepteurs, essentiel pour la survie de ces derniers. Par ailleurs, Cette étude suggère que des dérèglements au niveau de l'équilibre du VEGF ne sont pas seulement impliqués dans la forme humide de la DMLA, comme déjà démontré dans des études antérieures, mais pourraient également contribuer et survenir dans des formes précoces de la DMLA, et par conséquent le VEGF représente une cible thérapeutique potentielle pour les maladies associées à des anomalies au niveau de l'EP.